「ChatGPTに本名を入れて履歴書を直してもらったけど、これ大丈夫?」——皆さんもふと不安になった経験はありませんか。実は個人情報保護委員会が2023年6月にOpenAIへ行政指導を出しており、生成AIへの個人情報入力は個人情報保護法違反のリスクを伴う行為だと明確に警告されています。
とはいえ、必要以上に怖がる必要はありません。正しい使い方さえ押さえれば、生成AIは初心者の皆さんにとっても便利な相棒として活躍してくれます。本記事では、編集部が公式情報・行政の注意喚起・実際の漏えい事例を整理して、初心者の皆さんが今日から実践できる5つの安全ルールと、ChatGPT・Gemini・Claudeのオプトアウト設定方法をまとめました。
この記事を読むとわかること:
- 生成AIに個人情報を入れたとき、データがどう扱われるかの仕組み
- Samsung事例から学ぶ「入れていいもの・ダメなもの」の判断基準
- 初心者でも今日から守れる「生成AI 入力してはいけないもの」の5ルール
- ChatGPT・Gemini・ClaudeのAI 学習 拒否 設定 方法
- 万が一個人情報を入れてしまった場合の3ステップ対処法

生成AIに個人情報を入れるとどうなる?知っておきたいリスクの正体
結論からお伝えすると、生成AIに個人情報を入れる行為は、入力した内容がサーバーに保存され、別のユーザーへの回答に使われたり、学習データに組み込まれたりするリスクを伴います。便利さの裏側で「自分の名前や住所」が思わぬ形で外に出てしまう可能性がある、というわけです。
「ちょっと履歴書のたたき台を作ってもらおう」「メールの下書きを直してもらいたいな」——そんな軽い気持ちで本名や勤務先を打ち込んだ経験、皆さんもありませんか?編集部が公開情報を整理した限りでも、ここでつまずく初心者の方は本当に多いです。生成AIは「無料の便利ツール」というより、入力データが裏でどう扱われるかを意識して使う道具だと考えておくのが安心です。
この点については、日本の個人情報保護委員会も2023年6月2日に注意喚起を出しています。要点は3つで、①本人の同意なく要配慮個人情報(人種・信条・病歴など)をAIに入力すると個人情報保護法違反のリスク、②機械学習に個人情報が含まれないよう注意、③利用目的に合致しているかを必ず確認、というものです。
ここで気になるのは「個人で使う分なら関係ないのでは?」という疑問ではないでしょうか。残念ながら、個人利用でも基本的なリスク構造は変わりません。リスクを大きく整理すると、次の3つに分けられます。
- ① 入力データが学習に使われる: 無料版・標準設定のままだと、入力した文章がAIの品質改善に再利用される可能性があります
- ② 別ユーザーへの回答にデータが混ざる: 過去には特定の質問に対して他人の入力内容が出力された、というインシデントの報告もあります
- ③ サーバー側の事故・攻撃で漏えい: 提供元のサーバーに情報が保存される以上、外部への漏えいリスクはゼロにはなりません
ただし、ここで「だから生成AIは怖くて使えない」と決めつけるのは少しもったいない話です。正しいルールと設定さえ押さえれば、初心者の皆さんでも安心して使えます。次の章から、その仕組みと具体策を一緒に整理していきましょう。
なぜ心配?入力したデータが「学習」に使われる仕組み
ChatGPT 個人情報 漏えいのニュースを耳にしたとき、「そもそも何が起きてるの?」と疑問に感じた方は多いのではないでしょうか。仕組みをひと言で表すと、入力した文章はクラウドのサーバーに送られ、設定によってはAIモデルの学習データとして再利用されるということです。
イメージしやすく言うと、AIは巨大な図書館の司書のような存在です。皆さんが質問するたびに本を選んで読んでくれますが、同時に「皆さんがどんな質問をしたか」をメモして次の改善に役立てている、という二重の動きをしています。このメモが「学習データ」と呼ばれるものですね。
では実際にどんな事故が起きているのか。最も有名な例が、韓国Samsung Electronicsの2023年3月のインシデントです。PC Watchの報道によると、ChatGPTの社内利用を許可してからわずか20日間で3件の機密情報漏えいが発生したそうです。
3件の中身はどれも「便利だから」と業務用の情報を打ち込んでしまったケースでした。
- 1件目: 半導体工場の測定データベースのソースコードを、バグ修正のために入力
- 2件目: 歩留まり・不良チップ判定プログラムのテストコードを最適化のため入力
- 3件目: 社内会議の音声を文字起こしし、議事録作成のため入力
結果としてSamsungはChatGPTの利用を全面禁止に切り替えました。これは「企業だから関係ない話」ではなく、個人レベルでも同じ仕組みでデータが流れているという警告として読める事例です。
ここで覚えておきたいのは、「自分は会社の機密なんて入力しない」と思っていても、ふだんやり取りしているメールの一部・住所・取引先名・友人の名前など、無自覚な個人情報はかなりの量にのぼる、という事実です。皆さんも一度、最近ChatGPTやGeminiに入れた質問を思い返してみてください。そこに本名や具体的な住所、勤務先が紛れていないでしょうか?
初心者が絶対に守るべき!生成AI利用の『5つの安全ルール』
ここからが本題です。仕組みを押さえたうえで、初心者の皆さんが今日から実践できる安全ルールを5つにまとめます。難しい知識は不要で、入力前のひと呼吸でほぼ防げる内容ばかりです。生成AI 入力してはいけないものの全体像を、まずはこの5本柱で押さえてしまいましょう。
ルール1: 個人情報そのものを入力しない
最初のルールはシンプルで、本名・住所・電話番号・マイナンバー・クレジットカード番号など「これが漏れたら困る情報」は丸ごと入れないこと。免許証や保険証の画像をそのまま貼り付けるのも避けたほうがいいです。たとえば履歴書の添削をお願いしたい場合は、本名を「Aさん」、勤務先を「都内の中堅IT企業」のようにダミー化するだけで、ほとんどのケースで添削は成り立ちます。
ルール2: 仕事の機密は「言い換え・匿名化」する
ルール2は、Samsung事例から学んだ「言い換え」の発想です。コードや会議録音をそのまま入れる代わりに、変数名やプロジェクト名を一般的な表現に置き換えて入力する。たとえば「弊社プロジェクトX社向け請求書システムのバグ」→「ECサイトの請求書機能のバグ」に書き換えるだけで、社外に伝わる情報量が一気に減ります。
ルール3: 履歴オフ または オプトアウト設定を有効にする
ルール3は設定面の対策です。AI 学習 拒否 設定 方法は次の章で詳しく解説しますが、最低限「入力した会話が学習データに使われない設定」をオンにしておくのが鉄則です。ChatGPTでもGeminiでも、初期設定では学習に使われる側に倒れているので、自分で一度確認しに行く必要があります。
ルール4: 法人利用は法人版・API版に限定する
仕事で使うなら、無料版ではなく法人向けプラン(ChatGPT Enterprise・Team、Gemini for Workspaceなど)またはAPI経由を使うのが安全です。これらは契約で「入力データを学習に使わない」と明記されているため、ルール1〜3を守りきれない場面でも保険になります。
ルール5: 出力結果に個人情報が紛れていないか確認する
最後のルールは、見落としがちなポイントです。AIの返答にも、過去の入力に由来する個人情報が混ざる可能性があります。生成された文章をそのまま社外メールやSNSに貼る前に、必ず一度読み返す——これだけで多くの事故は防げます。
設定一つで安心!主要AIツール3社の学習拒否(オプトアウト)はどうやる?
ルール3で触れた「学習させない設定」は、ツールごとに場所と効き方が違います。ChatGPT・Gemini・Claudeの3社で必要な操作を1ページで整理すると、自分が普段使うツールの該当箇所が一目でわかります。AI 学習 拒否 設定 方法を毎回検索し直すのは大変なので、ここでまとめて押さえておきましょう。
| サービス | 初期設定の挙動 | 必要な操作 | 履歴の扱い |
|---|---|---|---|
| ChatGPT (OpenAI) | 標準で学習に利用 | Settings → Data Controls → 「Improve the model for everyone」をオフ | 履歴は残せる(オフ後も会話一覧に表示) |
| Gemini (Google) | 標準で学習に利用 | データと個人情報設定 → 「Geminiアプリアクティビティ」をオフ | オフにすると一定期間後に削除 |
| Claude (Anthropic) | デフォルトで学習しない | 追加設定不要 | 会話は残せる・API利用も学習対象外 |
ChatGPTのオプトアウト手順
OpenAIのデータコントロールFAQに基づくと、操作は次の通りです。画面右上のプロフィールアイコンから「Settings」を開き、左メニューの「Data Controls」を選びます。そこに「Improve the model for everyone(すべての人のためにモデルを改善する)」というトグルがあるので、これをオフにすればOK。履歴は残したまま学習だけ無効化できるのが嬉しいポイントです。
過去のデータも含めて削除申請したい場合は、OpenAIのプライバシーポータルから個別に申請する必要があります。会話履歴を全部消したい方は、こちらも合わせて検討してみてください。
Geminiのオプトアウト手順
GeminiはGoogleアカウントの「データと個人情報」設定から操作します。「Geminiアプリアクティビティ」をオフにすると、それ以降の会話はモデル学習に使われなくなります。注意点は、オフにすると会話履歴も一定期間後に自動削除されること。ChatGPTのように「履歴を残したまま学習だけオフ」とはいかない設計です。
Claudeは追加設定が原則不要
Anthropicの公開方針によると、Claudeはデフォルトで会話を学習に利用しない方針を表明しています。API経由のデータも学習に使わず、有料プラン・Business・Enterpriseいずれも追加設定は要りません。プライバシー観点で「最初から守られている」ツール、と覚えておけば大丈夫です。
ChatGPT・Gemini・Claudeのプライバシー方針はどう違う?
3社の設定方法を見たうえで気になるのが、「結局どこが一番プライバシーに優しいの?」という点ではないでしょうか。生成AI セキュリティ 対策の全体像を把握するうえでも、各社のスタンスを整理しておくと役に立ちます。
マネーフォワードの解説などで広く言われている通り、3社のスタンスを大きく分けると次のようになります。
- OpenAI(ChatGPT): 個人版は学習にデータを使うのがデフォルト。Enterprise・Team・APIでは契約上、学習対象外。SOC 2 Type II認証取得済み
- Google(Gemini): 個人版は学習に利用。アクティビティオフで学習除外可。Workspace(Business/Enterprise)はエンタープライズグレードのデータ保護が標準
- Anthropic(Claude): 個人版・有料版・Businessすべてデフォルトで学習に使わない。SOC 2 Type II認証取得・DPA対応
ここで気になるのが「個人で使う場合と仕事で使う場合で、どこをどう変えるべきか」という点です。整理すると次のようになります。
- Claudeを優先候補にする
- ChatGPT/Geminiを使うなら設定を必ず確認
- 本名・住所の入力を避ける(ルール1)
- 無料版は原則NG
- Enterprise・Team・APIなどの契約版を使う
- 社内ガイドラインの整備が前提
ちなみに「無料版でも設定すれば仕事で使える?」と聞かれることが多いのですが、編集部としては慎重派の立場です。設定変更は人為ミスが起きやすく、社員ごとにバラバラの状態になりがち。仕事で使うなら、契約段階で『学習に使わない』が約束されているプランに統一するのが確実です。
迷われる方も多いと思いますが、まずは「自分はどのツールを、何の目的で使っているか」を一度棚卸ししてみてください。プライバシー方針は変動するので、執筆時点(2026年5月)の情報をベースに、各公式ページで最新の方針を確認するのがおすすめです。
会社や学校で生成AIを安全に使うにはどうすれば?
組織で生成AIを導入するときの最低ラインは、「使ってよい範囲」と「使ってはいけない情報」を文書化しておくことです。Samsung事例のように、許可した瞬間に短期間で漏えいが連発する例もあります。ガイドラインなしの解禁は、皆さんが想像する以上にリスクが高いと考えてください。
ガイドライン整備の考え方は、難しく構える必要はありません。社内ルールに最低限盛り込みたい項目は、次の4点です。
- 入力NGリスト: 顧客情報・個人情報・取引先名・社内コード・人事評価など、入力禁止の情報を列挙
- 使ってよいツールの限定: 個人アカウント版のChatGPT/Geminiは原則禁止、契約済みの法人版またはAPI経由のみ許可
- 報告ルール: 万一機密を入力してしまった場合の報告先と手順を明記
- 教育・研修: 半年〜年1回程度、利用ルールの再周知
学校の場合も発想は同じで、「課題提出にどこまでAIを使ってよいか」「個人を特定できる作文を入れない」といった指針を授業の最初に共有しておくと、生徒さんも安心して使えます。
法律面の注意点として、個人情報保護委員会の注意喚起では、本人の同意なく生成AIに個人情報を入力した内容が機械学習に使われた場合、個人情報保護法違反の可能性が指摘されています。社員研修では、この行政指導の存在も合わせて伝えると説得力が増しますよ。
もし個人情報を入力してしまったらどうすればいい?
「やってしまった……」と気づいた瞬間が一番焦るところですよね。生成AI 個人情報 大丈夫かどうかをすぐ取り戻すには、焦らず3ステップで対処するのが基本です。
ステップ1は該当する会話履歴の削除。ChatGPTなら左側のサイドバーから該当チャットを「Delete」、Geminiなら「Geminiアプリのアクティビティ」から該当履歴を削除します。Claudeも同じく会話単位で削除可能です。これで自分のアカウント上から見える形では消えます。
ステップ2はプライバシーポータルからの削除申請。ChatGPTの場合、OpenAIのプライバシーポータルから「個人データ削除リクエスト」を提出することで、サーバー側のデータ削除をリクエストできます。GeminiもGoogleアカウントの「マイアクティビティ」から類似の操作が可能です。
ステップ3は業務利用なら社内報告。会社のルールに従って、情報セキュリティ担当またはIT部門に速やかに報告しましょう。隠してしまうと後から発覚したときの被害が広がるので、ここはスピード重視です。
「ステップ1だけで十分では?」と思われるかもしれませんが、画面から消えてもサーバー上には一定期間残るのが標準です。本気で消したい場合は、ステップ2の申請まで進めてください。

ここまでで「何を入れてはいけないか」と「どう設定するか」の全体像はバッチリ。残るは「どのツールから始めるか」の選択です。プライバシー重視ならClaudeのプライバシー方針を、設定変更で対応するならChatGPTのData Controlsのページから今日の設定を見直してみましょう。
よくある質問
Q1. 入力した名前や住所はネットに公開されますか?
通常は他のユーザーに直接公開されることはありませんが、サーバーに保存され学習データとして使われる可能性があります。標準設定では学習対象になるツールが多いため、設定でオフにするか、本名・住所自体を入力しないのが安全です。
Q2. 生成AI 個人情報 大丈夫だった一度入力したデータを後から消すことはできますか?
会話履歴を削除することは可能ですが、サーバー上の完全削除には各社のプライバシーポータルからの申請が必要です。OpenAI・Google・Anthropicそれぞれにデータ削除リクエストの窓口があるので、本気で消したい場合は申請まで進めてください。
Q3. 法人版を使えば個人情報は守られますか?
ChatGPT Enterprise・Team、Gemini for Workspace、Claude Businessなどの法人プランは、契約上「入力データを学習に使わない」と明記されています。ただし社員ごとの利用ルール整備は別途必要で、契約だけで全リスクが消えるわけではありません。
Q4. AI 学習 拒否 設定 方法は無料版でも使えますか?
はい、ChatGPT・Geminiの個人版でも設定からオプトアウトは可能です。ただし設定変更を忘れる人為ミスが起きやすいので、仕事用途なら法人版の利用を強く推奨します。
Q5. Samsung事例のような「コードを入力する」のもNGですか?
社外秘コード・社内識別子を含む内容は原則NGです。一般的なアルゴリズムの相談に置き換えるか、変数名・サービス名をダミー化してから質問するのが安全です。
Q6. 友達や家族の名前を打ち込むのは大丈夫ですか?
第三者の個人情報を本人の同意なく入力するのは、やはり避けたほうが無難です。本人にとっては「勝手にAIに渡された」状態になり、トラブルの元になります。例文として頼むなら「友人A」「家族B」のような匿名表記に置き換えてください。
まとめ
生成AIに個人情報を入れる行為は、入力データが学習に使われたり、サーバーに保存されたりするリスクを伴います。とはいえ、本記事で整理した5つの安全ルール——①入力しない②言い換える③学習オフ設定④法人版利用⑤出力チェック——を押さえれば、初心者の皆さんでも安全に使いこなせます。
ツール選びの観点では、Claudeはデフォルトで学習に使わない方針、ChatGPT・Geminiは設定変更でオプトアウト可能、と覚えておくと迷いません。組織で使うなら、ガイドライン整備と法人版の契約をセットで進めるのが鉄板です。
「便利だから無造作に使う」のではなく、「仕組みを知って、設定で守って、入力前に一呼吸」。この3つのリズムが身につけば、生成AIはこれからの皆さんの日常を強力にサポートしてくれます。生成AI セキュリティ 対策の第一歩として、まずは今日、自分が普段使うツールの設定画面を一度開いてみてください。5分の確認が、これから何年もの安心につながります。
まずは今日5分だけ時間を取って、ChatGPTまたはGeminiの「Data Controls / アクティビティ設定」を開き、学習オフのトグルを確認してみましょう。設定の場所は本記事の比較表でチェックできます。さらに公式の最新情報は個人情報保護委員会の注意喚起ページで確認できます。
本記事は、公式発表・公開情報・ユーザーレビューをもとに編集部が整理・分析したものです。掲載内容は執筆時点のものであり、最新情報は各公式サイトでご確認ください。

コメント