「うちの会社でも生成AIを使いたい。でもセキュリティは大丈夫なのか」。ChatGPTをはじめとする生成AIの業務活用が広がる中、経営者の間でこうした懸念が高まっています。実際、2023年以降、Samsung電子の機密コード流出やChatGPTのバグによる会話履歴の漏洩など、生成AIに関連する情報漏洩事故が相次いで発生しました。さらに2026年1月には、IPA(独立行政法人情報処理推進機構)が発表した「情報セキュリティ10大脅威 2026」において、AIに関連するセキュリティリスクが組織向け脅威の第3位に初選出されています。生成AIの情報漏洩リスクは、もはや一部の先進企業だけの問題ではなく、AIを業務に取り入れるすべての企業が直面する経営課題です。本記事では、実際に起きた5つの事故事例を時系列で紹介しながら、それぞれの原因と教訓を整理します。自社でAI導入を検討する際の判断材料として、ぜひ最後までお読みください。
なぜ生成AIで情報漏洩が起きるのか

生成AIの仕組みと情報漏洩リスクの関係
生成AIで情報漏洩が発生する根本的な原因は、AIサービスの仕組みそのものにあります。ChatGPTやGeminiといったクラウドベースの生成AIを利用する場合、ユーザーが入力したデータはインターネットを通じてサービス提供者のサーバーに送信されます。入力された情報はサーバー上で処理され、設定やプランによってはAIモデルの学習データとして利用される可能性があります。
つまり、社内の機密情報や個人情報をAIに入力するという行為は、その情報を社外のサーバーに送信していることと同義です。この基本的な仕組みを理解していないまま生成AIを使うと、意図せず情報漏洩を引き起こしてしまいます。
情報漏洩が起こる3つのパターン
生成AIに関連する情報漏洩は、大きく3つのパターンに分類できます。
1つ目は、ユーザーの不注意による機密情報の入力です。従業員がソースコードや社内資料をそのままAIに貼り付けて処理を依頼するケースが典型的です。後述するSamsung電子の事例がこのパターンに該当します。悪意はなくとも、AIリテラシーが不足していることで起こる事故です。
2つ目は、AIサービス側のバグや脆弱性による漏洩です。ユーザーがどれだけ注意しても、サービス提供者のシステムに不具合があれば情報は漏洩します。OpenAIのChatGPTで発生した会話履歴の表示バグがこのパターンの代表例です。ユーザー側では防ぎようがないという点で、最も厄介な漏洩パターンといえます。
3つ目は、外部からの攻撃によるアカウント乗っ取りや情報窃取です。マルウェアによってChatGPTのログイン情報が盗まれ、過去の会話履歴ごと第三者に閲覧されるケースがこれに当たります。AI固有の問題というよりも、従来のサイバー攻撃がAIサービスにも及んでいるという構図です。
これら3つのパターンを知っておくことで、「どの対策がどのリスクに対応するのか」を整理しやすくなります。以下、それぞれのパターンに対応する実際の事故事例を見ていきます。
【事例1・2】Samsung機密コード流出とOpenAI ChatGPTバグ

事例1:Samsung半導体機密コード流出事件(2023年3月)
生成AIによる情報漏洩事故として最も広く知られているのが、Samsung電子の事例です。2023年3月、Samsung電子のDS(Device Solution)部門で社内でのChatGPT使用が許可されました。ところが、許可からわずか20日間で3件もの情報流出事案が発生してしまいます。
1件目は、半導体設備の測定プログラムのソースコードをChatGPTに入力し、コードの修正を依頼したケースです。2件目は、歩留まり計算プログラムのソースコード全体をChatGPTに入力し、最適化を依頼したケースでした。そして3件目は、社内会議の内容をスマートフォンで録音し、NAVERの音声認識サービス「Clova」を経由してChatGPTに入力し、議事録の作成を依頼したケースです。
いずれのケースも、従業員に悪意はありませんでした。日常業務の効率化のためにAIを使っただけです。しかし、入力されたソースコードや会議内容は、Samsung電子にとって極めて重要な機密情報でした。AIに入力された時点で、その情報はOpenAIのサーバーに送信され、社外に出てしまったことになります。
この事態を受けてSamsung電子は、まずChatGPTへのプロンプト入力サイズを1,024バイトに制限する緊急措置を講じました。しかし、根本的な解決にはならないと判断し、最終的には従業員のChatGPT利用を全面禁止としました。同時に、DS部門のInnovation Center管轄で社内専用AIサービスの構築を検討開始しています。
この事例が示す最大の教訓は、「使用許可」だけでは不十分だということです。どのような情報をAIに入力してよいのか、どのような情報は絶対に入力してはならないのか。こうした具体的な利用ルールとガイドラインを事前に策定し、従業員への教育を徹底してから導入しなければ、善意の利用が情報漏洩につながってしまいます。
事例2:OpenAI ChatGPTのバグによる会話履歴漏洩(2023年3月)
Samsung事件と同じ2023年3月、今度はAIサービス提供者側に起因する情報漏洩事故が発生しました。ChatGPTにおいて、一部のユーザーの画面に他のユーザーの会話履歴のタイトルが表示されるという不具合が発覚したのです。
2023年3月20日から21日にかけて発生したこのバグは、ChatGPTサービスの緊急停止に至る深刻な事態でした。漏洩した情報の範囲は会話履歴のタイトルだけにとどまりませんでした。同時にアクティブだった別のユーザーの新規チャットの最初のメッセージが見えてしまうケースや、サブスクリプション確認メールが誤ったユーザーに送信されるケースも確認されました。
さらに深刻だったのは、ChatGPT Plus加入者の一部で、他のユーザーの氏名、メールアドレス、支払い住所、クレジットカード番号の下4桁が表示される可能性があったことです。OpenAIの発表によると、影響を受けたのはChatGPT Plusユーザーの最大1.2%とされています。
原因は、ChatGPTのデータベースに使用されていたオープンソースソフトウェアRedisのバグでした。サーバー間通信が特定のタイミングでキャンセルされる条件下で、本来別のユーザーに返されるべきデータが「迷子」になり、誤った相手に届いてしまったのです。
この事例の重要な点は、ユーザー側にはまったく落ち度がなかったということです。どれだけ慎重にAIを利用していても、サービス提供者のインフラに問題が生じれば情報は漏洩します。この事実は、「機密性の高い情報はそもそもAIに入力しない」というルールの必要性を裏付けています。AIを便利に使うことと、入力する情報の範囲を厳密に管理することは、両立させなければなりません。
【事例3・4】アカウント10万件流出とイタリアのChatGPT禁止

事例3:ChatGPTアカウント10万件超のダークウェブ流出(2023年6月)
3つ目の事例は、外部からの攻撃によるものです。2023年6月、シンガポールのサイバーセキュリティ企業Group-IBが衝撃的な調査結果を発表しました。2022年6月から2023年5月までの1年間で、ChatGPTのアカウント情報10万件以上がダークウェブの闇市場で取引されていたというのです。日本からの漏洩も少なくとも661件が確認されています。
漏洩の手口は、「インフォスティーラー」と呼ばれる情報窃取型マルウェアによる攻撃でした。Group-IBの調査では、Raccoon(78,348件)、Vidar(12,984件)、Redline(6,773件)という3種類のインフォスティーラーが主な原因として特定されています。これらのマルウェアは、感染したパソコンのWebブラウザに保存されたログイン情報を盗み出すという手法で、ChatGPTに限らず様々なサービスのアカウント情報を窃取します。
この事例が特に危険な理由は、ChatGPTアカウントが乗っ取られた場合の被害範囲にあります。ChatGPTのアカウントには、そのユーザーがこれまでに行ったすべての会話履歴が保存されています。業務で利用していた場合、過去にAIに入力した機密情報や社内情報が、アカウントを乗っ取った第三者にすべて閲覧されてしまうのです。
この事例から得られる教訓は明確です。まず、ブラウザにパスワードを保存する習慣は、情報漏洩のリスクを大幅に高めます。パスワードマネージャーの利用や、二要素認証の設定を徹底する必要があります。また、ChatGPTの会話履歴には機密情報が蓄積されるリスクがあるため、不要な会話履歴を定期的に削除する運用ルールも重要です。
事例4:イタリアのChatGPT一時禁止措置(2023年3〜4月)
4つ目の事例は、政府レベルでの規制に発展したケースです。2023年3月31日、イタリアのデータ保護当局(Garante)がChatGPTの一時使用禁止を発令しました。EU加盟国およびEEA加盟国として初めてChatGPTを禁止した国となり、世界中で大きなニュースとなりました。
禁止の理由は3つありました。1つ目は、ユーザーの年齢確認機能が欠如していたこと。2つ目は、AIの学習のために個人データを大量に収集・保存することを正当化する法的根拠がないとされたこと。3つ目は、ユーザーへの透明性のある情報提供が不足していたことです。いずれもEUの個人情報保護規則であるGDPR(General Data Protection Regulation)への違反が問題視されました。
この禁止措置は国際的な波及効果をもたらしました。フランスやアイルランドのデータ保護当局がイタリアに接触し、禁止措置の根拠を照会しました。2023年4月13日には、EDPB(欧州データ保護会議)がChatGPT対策のタスクフォースを設置し、EU全域でのAI規制強化の議論が加速するきっかけとなりました。
その後、OpenAIが年齢確認の導入、プライバシーポリシーの改善、学習データへの利用をオプトアウトできる機能の追加といった改善策を実施し、イタリア当局は条件付きで使用禁止を解除しました。しかし、2024年12月にはイタリア当局がOpenAIに対して1,500万ユーロ(約24億円)の制裁金を課しています。この事例はその後のEU AI Act(AI規制法)の制定にも影響を与えました。
日本の経営者にとっても、この事例は無関係ではありません。日本でも個人情報保護委員会がOpenAIに対して注意喚起を実施しており、海外のAIサービスを利用する際には、日本の個人情報保護法やGDPR等の各国法規制への適合性を確認する必要があります。特にグローバルに事業を展開している企業では、利用する国ごとの法規制を把握しておかなければ、思わぬ法的リスクを負うことになります。
【事例5】IPA 10大脅威2026にAIリスクが初選出と5事例共通の教訓

事例5:IPA「情報セキュリティ10大脅威 2026」にAIリスクが第3位で初選出
5つ目の事例は、特定の企業で発生した事故ではなく、日本の公的機関がAIのセキュリティリスクを公式に認定したという事実そのものです。2026年1月29日、IPA(独立行政法人情報処理推進機構)が「情報セキュリティ10大脅威 2026」を発表しました。組織向け脅威のランキングにおいて、「AIの利用をめぐるサイバーリスク」が第3位に初選出されたのです。
上位5位のランキングは次の通りです。第1位はランサム攻撃による被害で、11年連続11回目の選出です。第2位はサプライチェーンや委託先を狙った攻撃で、8年連続8回目。第3位がAIの利用をめぐるサイバーリスクで初選出。第4位がシステムの脆弱性を突いた攻撃、第5位が内部不正による情報漏洩です。
初選出でありながら第3位という高い順位は、AIに関するセキュリティリスクが急速に深刻化していることを物語っています。IPAはAI関連の脅威を3つの側面から整理しています。
第1の側面は、AIを利用する際のリスクです。本記事で紹介してきたような意図しない情報漏洩や、他者の著作権を侵害するリスクが含まれます。第2の側面は、AIそのものへの攻撃です。プロンプトインジェクションやデータポイズニングといった、AIシステム固有の攻撃手法が登場しています。第3の側面は、AIを悪用した攻撃の高度化です。フィッシングメールの精巧化やディープフェイクによる詐欺などが該当します。
実際、2024年には香港の多国籍企業で、AIが生成したディープフェイクのビデオ通話に財務担当者が騙され、約38億円を送金してしまう詐欺事件が発生しています。AIのリスクは情報漏洩だけにとどまらず、攻撃手法そのものを高度化させる方向にも広がっているのです。
5つの事例に共通する教訓
ここまで紹介した5つの事例を俯瞰すると、共通する教訓が浮かび上がります。
最も重要な教訓は、「禁止」ではなく「ルール整備」が正解だということです。Samsung電子はChatGPTの利用を全面禁止しましたが、ツールを禁止しても従業員が個人のスマートフォンや私用パソコンから生成AIを使ってしまう「シャドーAI」の問題は解消されません。企業が管理できない環境で使われるほうが、かえってリスクは高まります。調査によると、約7割の企業で未承認AIの利用が検知されているというデータもあり、禁止政策は現実的ではありません。
では、企業として何をすべきなのか。対策は3つの柱で整理できます。
1つ目は技術的対策です。DLP(Data Loss Prevention、情報漏洩防止)ツールの導入、法人向けプランの利用(学習データへの利用をオプトアウトできるプランの選択)、AIに入力できるデータの範囲を技術的に制限する仕組みの構築が含まれます。
2つ目は組織的対策です。AI利用ガイドラインの策定が中心となります。「どの業務でAIを使ってよいか」「どのような情報をAIに入力してはならないか」「AIの出力をどのように検証するか」といったルールを明文化し、全社に周知します。ガイドラインは一度作って終わりではなく、AIサービスの進化や新たなリスクの出現に合わせて定期的に見直す必要があります。
3つ目は人的対策です。全従業員を対象としたAIリテラシー教育と、定期的な研修の実施です。Samsung事件が示すように、悪意がなくても知識がなければ情報漏洩は起こります。AIの便利さだけでなく、リスクを正しく理解した上で使える人材を育てることが、最も根本的な対策です。
これら3つの柱を組み合わせて対策を講じることで、生成AIの情報漏洩リスクを大幅に低減できます。
まとめ

本記事では、生成AIに関連する5つの情報漏洩事故事例を紹介しました。Samsung電子の機密コード流出(ユーザーの不注意)、OpenAI ChatGPTのバグによる会話履歴漏洩(サービス側の不具合)、ChatGPTアカウント10万件のダークウェブ流出(外部攻撃)、イタリアのChatGPT禁止措置(法規制リスク)、そしてIPA 10大脅威2026へのAIリスク初選出(リスクの公的認定)。これらの事例は、生成AIの情報漏洩が「ユーザー側の問題」と「サービス側の問題」の両面から発生することを示しています。
生成AIを業務から完全に排除することは、もはや現実的ではありません。競争力の観点からも、AIを活用しないという選択肢を取ることは難しい時代です。重要なのは、リスクを正しく理解した上で、技術的対策、組織的対策、人的対策の3つの柱をバランスよく整備することです。
生成AIの活用とセキュリティの確保は、二者択一ではなく両立させるべきものです。本記事で紹介した事例と教訓が、自社のAI活用方針を検討する際の参考になれば幸いです。
