- 自分や家族のことをAIに話すとき、どこまで入れていいか迷う
- 自分がAIに相談した内容が漏れないか心配
- 写真やスクリーンショットを送るときに気をつけるべきことを知りたい
家族のこと、子どものこと、仕事のこと。
誰かに聞いてほしいけれど、家族や友人には言いづらい悩みは、誰にでもあります。
最近はそうした悩みをAIに話す人が増えています。
AIへの相談が増える一方で、「個人情報をどこまで入れていいのか」「相談した内容が漏れたりしないか」という疑問を持つ人も多くいます。
当相談室では2026年4月、AIに悩みを相談した経験のある143人にアンケートを取りました。
この記事では、アンケートの内容をもとに、AIに相談するとき個人情報どのように伝えればよいか、判断基準や伝え方を解説します。
この記事でお伝えしたいこと
執筆・編集責任:吉田克彦(合同会社ぜんと代表 公認心理師、精神保健福祉士)
- 不登校の家族支援25年以上、3000家庭以上の支援実績
- スクールカウンセラー歴20年以上。小学校、中学校、高校(全日制、定時制、通信制)全ての校種で勤務経験あり。
→詳しいプロフィールはこちら
AIだからと言ってすべてをさらけ出すのは危険
AIに相談するときに、避けた方がよい情報がいくつかあります。
一度頭に入れておけば、入力するたびに迷わずに済みます。
AIに伝えるべきではない情報
入れない方がよいのは、自分や家族が特定できる情報です。
- 自分や家族の本名、フルネーム
- 自宅の住所
- 電話番号、メールアドレス
- 銀行口座番号、クレジットカード番号、暗証番号
- 通院先の病院名、医師の名前
- 子どもの学校名、保育園名
- 勤務先の会社名
悩みのダイレクトに伝えるからこそ、所属先などについてはぼやかした方が賢明です。
AIに伝える際に加工する方法
「人物像を伝えないと、AIが状況を理解してくれない」と感じる場面があります。
そのときは、固有の情報を仮名や範囲表現に置き換えます。
- 年齢 → 30代、50代といった範囲
- 居住地 → 関東、首都圏、地方都市など広域
- 勤務先 → 業種+規模感(IT系の中小企業、製造業の大手など)
- 家族構成 → 夫、子ども2人、義実家といった関係だけ
- 本名 → A、B、夫、上司などの仮名
加工の例を一つ挙げます。
Before:「中野区の◯◯小学校に通う長男(小2)が、担任の山田先生と合わなくて学校を休みがちです」
After:「都内の公立小に通う小学校低学年の息子が、担任の先生と合わなくて学校を休みがちです」
加工しても、AIに渡したい状況の本質は失われません。
学校名や先生の名前があってもなくても、AIの返答の質は変わりません。
仮名や範囲表現を使ったプロンプトの作り方は、AIに相談するときのプロンプトの作り方をご覧ください。
写真やスクリーンショットの注意
文章だけでなく、写真やスクリーンショットを添付してAIに相談する人も増えています。
アンケートでも「写真を添付するときは、個人情報の部分は消して添付しています」という回答がありました。
写真・スクリーンショットを添付するときは、3つの点に気をつける必要があります。
画像のなかに名前や住所が映り込んでいないか
家の表札、郵便物の宛名、子どもの名札、診察券、書類の名前欄は、思った以上に細部まで読み取られます。
メールやSNSのスクリーンショットは要注意
メールやSNSのテキストメッセージについて、返信を考えてもらったり、相手のメッセージの意図をAIに尋ねる人もいます。
この際に、画面の上部にメール送信者名やグループ名、相手のアカウント名が映ることがあります。
LINEのトーク画像をそのまま渡すと、相手の名前まで一緒に渡してしまいます。
写真のメタデータ(撮影日時や撮影場所などの情報)に注意
写真にはメタデータが埋め込まれている場合があります。
位置情報をオンにして撮った写真には、自宅やよく行く場所の緯度経度が含まれることもあります。AIに添付する際には加工アプリで削除してから渡すと安心です。
家族や同僚の情報にも注意
ここまでは自分の情報の話でしたが、AIに相談するとき、自分以外の人の情報も入力していることが多くあります。
夫・妻のメンタル不調、子どもの不登校、親の介護、職場の同僚の評価。
家族や職場の悩みは、相手の情報を伴って初めて成り立ちます。
意識したいのは、AIに伝える相手の情報は、本人の許可していないことです。
家族や友人の本名、病歴、職場、評価は、本人にとっては「人に話してほしくない」情報の場合があります。
対策は、自分の情報のときと同じです。
名前は仮名(夫、妻、息子、上司、A、B)に置き換える、病名は出さず「メンタル不調」「持病」で済ませましょう。
勤務先は業種だけにする、識別性の高いエピソードは省く必要があります。
「もしこの内容が本人に伝わったら、許してもらえる範囲か」を一度想像すると、自然な歯止めになります。
AIへの相談で気を付けるべき設定
入れない情報を抜いても、AI相談には完全には消えないリスクがいくつかあります。
裏で何が起きているかを知っておくと、対策の意味も腑に落ちます。
入力した内容はサーバーに残り、学習にも使われる
AIに入力した文章は、AI会社(OpenAI、Google、Anthropicなど)のサーバーに送られて保存されます。
AIが回答を作るには入力文章を会社のシステムに取り込む必要があるためです。
AIの仕組み上、避けられません。
ChatGPT、Gemini、Claudeいずれの個人向けプランも、初期設定は入力内容がAIの学習データとして使われる前提になっています。
学習に使わせない設定への切り替えは可能ですが、ユーザー自身が行う必要があります。
学習に使われた内容は、別のユーザーへの回答を作る材料の一部になります。
具体的な文章がそのまま他人に表示されるわけではありませんが、入力内容が統計的なパターンとしてAIに取り込まれていきます。
日本でも個人情報保護委員会が、入力した個人情報がAIの学習に使われることに注意を促しています。
生成AIの関係者が会話を読むことがある
AI会社は、AIの回答品質を高めるために、会話の一部を抜き取って社員や外部の評価者(人間)に読ませることがあります。
特にGoogleは、Geminiの公式ヘルプで「人間のレビュアーが会話を確認することがあるため、機微な情報は入力しないでください」と明記しています。
レビュー対象に抜き取られた会話は、ユーザーが履歴を削除しても消えず、Googleのシステム内に最大3年保持される仕様です。
ChatGPTやClaudeでも、安全性チェックや品質評価のために人が見る可能性はあります。
「会話を削除すればすべて消える」と思っている方は多いのですが、実際は違います。
ユーザーが画面上で削除しても、AI会社のシステム内には30日程度ログが残るのが一般的で、各社いずれも同じ仕組みです。

極度に恐れる必要はありませんが、「見られる可能性がある」という前提で相談に活用することが大事です。
過去には実際の漏えい事故も起きている
AI会社のシステム自体の不具合や運用ミスで情報が漏れた事例も、複数報告されています。
2023年、韓国のSamsung電子では、社員がChatGPTに社内会議の議事録や機密性の高いソースコードを入力していたことが発覚しました。Samsungは生成AIの社内利用をいったん全面的に禁止し、社内専用AIの開発に切り替えています。
同じ年の3月、ChatGPTでは技術的なバグにより、別人の会話タイトルが他のユーザーの画面に表示される事案が発生しました。同じバグで、ChatGPT Plusユーザーの一部について、氏名、メールアドレス、住所、カード番号の下4桁などが他のユーザーから見える状態になっていたことが、後に開示されています。
利用者側がどれだけ注意しても、AI会社のシステム側で起こる事故までは防ぎきれません。
使っているAIの設定を最低限だけ変えておく
サーバー保存も人間レビューも完全には防げませんが、AI側の設定で扱いを限定することはできます。一度だけ済ませておけば、それ以降の会話に効きます。
| 項目 | ChatGPT | Gemini | Claude |
|---|---|---|---|
| 学習オフの設定場所 | プロフィールアイコン → Settings → Data Controls →「Improve the model for everyone」をオフ | プロフィールアイコン → Activity →「Turn off」(過去履歴も消すなら「Turn off and delete activity」) | プロフィールアイコン → Settings → Privacy →「Help improve Claude」をオフ |
| 履歴を残さないモード | Temporary Chat(画面右上のボタンで開始、学習にも使われない) | Activityオフが代替(独立したモードはなし) | Incognito mode(一時的な会話、ブラウザを閉じると履歴から消える) |
| 削除した会話のサーバー保持期間 | 30日以内に完全削除(Temporary Chatも同30日) | オフ設定でも最大72時間は一時保存。人間レビュー対象になった会話はユーザー削除でも消えず最大3年保持 | 通常30日。学習に協力する設定をオンにしている場合は最大5年 |
※ メニュー名は英語表示の場合の名称です。日本語表示の場合は「設定」「データコントロール」「プライバシー」などの日本語表記になります。
※ 各社の仕様は変更される場合があります。本記事の情報は2026年4月時点のものです。
設定変更前にすでに学習に取り込まれた内容は取り消せませんが、これから先の会話の扱いは変えられます。
AIへ伝える情報の判断ポイントは「親しい友達なら話すか」
ここまでAIに相談をする際に情報の伝え方の注意点を説明してきました。
注意点はわかったけれど、ではどんな風に活用すればいいか戸惑う人も多いでしょう。
私は「親しい友達や家族に話す内容か」を基準に考えることをおすすめします。
「AIだからこそ話せた」という心理が、入れすぎを招く
アンケートでは、9割の方が「AIの方が話しやすい」と答えていました。
理由は「気を遣わなくていい」「相手の感情を気にせず話せる」「否定されない」というもの。
「AIに相談する前に、人に相談したことはありましたか」という問いには、46%が「誰にも相談していなかった」を選んでいました。家族にも友人にも医師にもつながらないまま、AIにたどり着いた方が半数近くを占めていた計算になります。
人にしゃべりにくいことが話せる便利さは、AI相談の大きな価値です。
一方で、便利さに引きずられて、本来は外に出すべきでない情報まで入力してしまう構造もあります。
アンケートにも「相談しながらも、この内容はどこかに記憶されてるんだろうなと思いながら、躊躇する時もあります」「特定できるような個人情報は入れてないが、どこまでリスクがあるかも知りたい」という声がありました。
判断軸は「親しい友達や家族に話せる内容か」
AIに何を入力していいか迷ったとき、「親しい友達や家族に話せる内容か」を考えましょう。
口の堅い友達にも、預金残高、暗証番号、家族の通院歴、職場の同僚の本名や評価は、わざわざ伝えないはずです。AIへの相談にも、同じ感覚を持ち込みます。
入力する前に「これは友達にも話すか」と一度立ち止まる、それだけで多くのリスクを避けられます。

「AIにだから何でも話せる」ではなく「AIにも伝えてはいけないことがある」と考えておきましょう。そうすると、過度にAIに依存することもなくなり、良い距離感が維持できます。
まとめ:完璧な対策はないからこそ、シンプルな基準を持つ
この記事では、アンケートの内容をもとに、AIに相談するとき個人情報どのように伝えればよいか、判断基準や伝え方を解説しました。
AIへの相談は、人に話しにくいことを話せる便利な場所です。
しかし、「人間じゃないから何を話しても大丈夫」「すべてを話してAIの意見に従う」という考えは危険です。
適度な距離感をもって上手に付き合うことで、心強い味方になります。
そもそも、どんな悩みがAIに向いていて、どんな悩みは専門家に相談すべきか迷う方は、AIへの相談に向いている内容と向かない内容もあわせてご覧ください。
引用参考文献
- 合同会社ぜんと独自調査「AIへの相談に関するアンケート」(n=143、2026年4月実施)
- 個人情報保護委員会 2023 「生成AIサービスの利用に関する注意喚起等について」(2026年3月24日閲覧)
- OpenAI Help Center「Data Controls FAQ」(2026年3月24日閲覧)
- Google「Gemini Apps Privacy Hub」(2026年3月24日閲覧)
- Anthropic 2025「Updates to Consumer Terms and Privacy Policy」(2026年3月24日閲覧)
- OpenAI 2023「March 20 ChatGPT outage: Here’s what happened」(2026年3月24日閲覧)
- Cyber Security Hub 2023「Samsung employees allegedly leak proprietary information via ChatGPT」(2026年3月24日閲覧)
更新情報
2026年4月29日 公開