MENU
目次
まつ@新規事業開発ノート
東大理系院から新卒で営業ベンチャーへ。その後スタートアップに参画も倒産し一文無しに。現在はIT企業の新規事業部でシステムと人材事業の立上げを行いながら、自身が経験したこと、必要だったことを発信。

「えっ、うちの社員が?」シャドーAI放置で起きる情報漏えいの恐怖と回避策

※このブログはアフィリエイト広告を利用しています

シャドーAIとは、企業が許可・把握していない生成AIを従業員が独自に業務利用することです。

「便利だから」という軽い気持ちで従業員が入力したそのデータ、実はAIの学習に使われ、世界中に流出するリスクがあることをご存知でしょうか?

Samsungで実際に起きたソースコード流出のように、一度の過ちが企業の信用を失墜させる時代です。

この記事では、見えないところで進行するシャドーAIのリスクを洗い出し、企業を守るための5つの対策をステップ形式で解説します。

まつ

これらの対策の中には実行が難しいものもあるかもしれませんが、
まずはできそうなものから取り組んでいただければと思います。

目次

シャドーAIを放置するリスク

放置するほどリスクが膨らみます。ここでは、対策を講じなかった場合に企業が直面する4つのリスクを整理します。

機密情報・個人情報の漏えい

シャドーAIの最大のリスクは情報漏えいです。従業員が個人アカウントでChatGPTなどに業務データを入力すると、その内容がAIの学習データに取り込まれる可能性があります。顧客の個人情報、未公開の財務データ、製品の設計情報などが外部に流出すれば、企業の信用は一瞬で失われます。

実際にSamsungでは、従業員がChatGPTにソースコードや会議録を入力したことが問題となり、社内での生成AI利用が一時禁止される事態に至りました。無料プランや個人プランの多くは入力データがモデルの改善に使用される設定になっており、一度送信された情報を完全に削除することは困難です

法令違反・コンプライアンスリスク

シャドーAIの利用は、法令やコンプライアンスの観点でも重大な問題を引き起こします。個人情報保護法やGDPRでは、個人データを第三者に提供する際に本人の同意や適切な安全管理措置が求められます。従業員が無断で生成AIに個人データを入力する行為は、これらの法令に抵触する可能性があります。

また、取引先とのNDA(秘密保持契約)に違反するケースや、生成AIの出力物に含まれる著作権侵害のリスクも見逃せません。違反が発覚した場合、行政処分や損害賠償だけでなく、取引先からの契約解除といったビジネス上の損害にも直結します。

業務品質・ガバナンスの低下

生成AIの出力はハルシネーション(事実と異なる内容の生成)を含むことがあります。社内でチェック体制がないまま生成AIの出力を業務に使えば、誤った情報に基づく意思決定や、品質の低い成果物が社外に出るリスクが高まります。また、誰がどの業務でAIを使っているかを組織が把握できない状態では、成果物の品質管理もトレーサビリティも確保できません。問題が起きたときに原因を特定することすら難しくなります。

把握できないコストの増加

シャドーAIは費用面でも見えにくいリスクを生みます。従業員が個人でサブスクリプション契約を結び、その費用を経費精算しているケースや、部門単位で独自にAIツールを導入しているケースが少なくありません。こうした支出は全社のIT予算に反映されず、コストの重複やライセンスの無駄が発生します。利用実態を把握できなければ、適正なコスト管理もボリュームディスカウントの交渉もできません。

シャドーAI対策① 生成AIの利用ガイドラインを策定する

シャドーAI対策の出発点は、生成AIの利用に関する社内ガイドラインの策定です。ルールがなければ従業員は自己判断で使わざるを得ず、結果としてシャドーAIが生まれます。ここでは、ガイドラインに盛り込むべき項目と、形骸化させないための運用ポイントを解説します。

ガイドラインに盛り込むべき項目

利用を許可する範囲と禁止事項

まず、生成AIの業務利用をどこまで認めるかを明確にします。全面禁止は現実的ではなく、禁止しても隠れて使われるだけです。

「社内文書のドラフト作成は許可」「顧客向け最終成果物への無チェックでの使用は禁止」など、業務プロセスごとに許可・条件付き許可・禁止を分類します。利用を許可するAIサービスの名称も具体的に列挙してください。許可リストにないサービスは原則利用不可とすることで、未知のAIツールが無断で使われることを防げます。

入力してはいけないデータの定義

生成AIに入力してはいけない情報を、具体的なカテゴリと例示で定義します。「機密情報は入力禁止」だけでは判断に迷うため、実務レベルで判断できる粒度が必要です。

たとえば、顧客の氏名・連絡先などの個人情報、未公開の売上データや財務情報、ソースコードや技術仕様書、取引先から受領した秘密保持対象の資料、社内人事評価や給与に関する情報などを明示します。「迷ったら入力しない」を原則としつつ、判断に困った場合の相談先も記載しておくことが重要です

利用時の申請・報告ルール

新たなAIサービスを業務に導入したい場合の申請フローを定めます。情報システム部門やセキュリティ部門による審査を経てから利用を開始する仕組みにすることで、未承認のAIツールの利用を抑制できます。申請フローは複雑にしすぎないことが大切です。手続きが煩雑だと従業員は申請を避け、かえってシャドーAIを助長します。申請から承認まで数日以内に完了する運用が理想的です。

実効性を高める運用のポイント

全社への周知と同意取得を徹底する

ガイドラインは策定しただけでは機能しません。全従業員への周知と、内容を理解した上での同意取得が不可欠です。社内ポータルへの掲載に加え、部門単位の説明会やeラーニングで内容を浸透させます。新入社員や中途入社者に対しても、入社時のオンボーディングにガイドラインの説明を組み込んでください。

定期的に内容を見直し更新する

生成AIの技術やサービスは急速に進化しています。半年前には存在しなかったツールが全社的に使われ始めるケースも珍しくありません。ガイドラインは最低でも半年に1回、可能であれば四半期に1回の見直しサイクルを設けます。新たなAIサービスの登場、法規制の変更、社内でのインシデント発生などをトリガーに臨時の改訂も行えるようにしておきます。

違反時の対応を明確にする

ガイドラインに違反した場合の対応を事前に定めておきます。初回は注意・指導にとどめるのか、悪質な場合は懲戒の対象とするのかなど、段階的な対応基準を設けます。重要なのは、違反を罰することが目的ではなく、再発を防ぐことです

違反が報告された際に「なぜそのツールを使う必要があったのか」をヒアリングし、公認ツールでは満たせないニーズがあるなら、それを解決する方向で検討する姿勢が大切です。

シャドーAI対策② シャドーAIの利用実態を可視化・検知する

ガイドラインを策定しても、実態が見えなければ対策の効果は測れません。シャドーAIの可視化と検知は、ルールの実効性を支える土台となる対策です

利用状況を把握する主な手法

ネットワークログ・アクセスログの監視

社内ネットワークのログを分析し、生成AIサービスへのアクセス状況を把握します。ファイアウォールやプロキシサーバーのログから、ChatGPT、Gemini、Claude、Copilotなどの主要な生成AIサービスのドメインへのアクセス頻度・時間帯・部門を可視化します。これにより、どの部門でどのAIツールがどの程度使われているかの全体像が把握できます。

CASBやSWGによるクラウド利用の制御

CASB(Cloud Access Security Broker)やSWG(Secure Web Gateway)を導入することで、クラウドサービスの利用をより精密に制御できます。CASBは従業員が利用しているクラウドサービスを自動検出し、未承認サービスへのアクセスをブロックしたり、特定の操作(ファイルのアップロードなど)だけを制限したりできます。すでにCASBやSWGを導入している企業であれば、生成AIサービスを監視・制御対象に追加する設定を行うだけで対応できます。

端末操作ログの活用

PC操作ログの取得ツールを活用すれば、ブラウザ経由のアクセスだけでなく、デスクトップアプリやブラウザ拡張機能として導入された生成AIツールの利用も検知できます。コピー&ペーストの操作ログと組み合わせることで、どのような情報が生成AIに入力されたかの推定も可能になります。ただし、操作ログの取得は従業員のプライバシーに関わるため、取得範囲と目的を事前に説明し、就業規則やプライバシーポリシーに基づいて運用することが重要です。

検知後の対応フローを整備する

検知の仕組みを構築しても、発見後のアクションが定まっていなければ意味がありません。未承認AIサービスの利用を検知した場合の対応フローを事前に整備しておきます。具体的には、検知から通知までの経路(例:情シス部門のアラート → 該当部門の管理者へ連絡)、該当者へのヒアリング方法、利用停止の要請手順、ガイドライン違反に該当する場合の処理を一連のフローとして文書化します。この対応フローはガイドラインとセットで運用し、検知結果がガイドラインの改善にフィードバックされる仕組みにすることで、対策全体のPDCAが回ります。

シャドーAI対策③ 企業公認の生成AIアカウントを整備する

シャドーAIが発生する根本原因の一つは、従業員が業務で使いたい生成AIツールを会社が提供していないことです。安全に使える公認の生成AI環境を整備することで、シャドーAIの動機そのものを減らせます

データが学習に使われないプランを選ぶ

生成AIサービスの多くは、無料プランや個人向けプランでは入力データがモデルの学習に使用される可能性があります。一方、法人向けプラン(Enterprise、Businessなど)では、入力データがモデルの学習やトレーニングに使用されない契約になっているのが一般的です

たとえば、ChatGPTのBusiness(旧Team)・Enterpriseプラン、ClaudeのTeam・Enterpriseプラン、Google Workspace向けのGemini Enterprise、Microsoft 365 Copilotなどは、入力データが学習に使われない旨が利用規約やデータ処理契約で明示されています。

プランの選定時は、利用規約の該当箇所を確認するだけでなく、データの保存期間、保存場所(リージョン)、第三者提供の有無、解約時のデータ削除ポリシーまで確認してください。

公認アカウントの導入・展開時の注意点

対象ツールと利用範囲を明確にする

公認として導入するAIサービスは、業務上のニーズとセキュリティ要件の両面から選定します。全社統一で1つのサービスに絞るか、部門ごとに最適なツールを選ぶかは、組織の規模や業務内容によって異なります。いずれの場合も、「このツールはこの業務に使ってよい」という利用範囲をガイドラインとセットで定義します。

利用者が使いやすい環境を整える

公認ツールが使いにくければ、従業員は再び非公認のツールに流れます。シングルサインオン(SSO)による認証連携、社内マニュアルの整備、プロンプトテンプレートの共有など、導入直後から従業員がスムーズに利用できる環境を整えてください。とくに生成AIに不慣れな従業員向けには、用途別のプロンプト例を用意しておくと利用促進に効果的です。

利用状況をモニタリングする

公認アカウントの導入後は、利用率やアクティブユーザー数を定期的に確認します。利用率が低い場合は、そもそも業務ニーズに合っていない、使い方がわからない、非公認ツールの方が便利だと感じているなどの課題が隠れている可能性があります。利用ログの分析と合わせて従業員へのヒアリングも行い、課題を特定して改善につなげます。公認ツールの利用率が上がれば、シャドーAIの発生率は自然と下がります

シャドーAI対策④ 従業員への教育でAIリテラシーを底上げする

ガイドライン、監視体制、公認ツールを整えても、従業員がその意図を理解していなければ対策は形骸化します。シャドーAIのリスクを自分ごととして捉え、正しい判断ができるAIリテラシーの教育が欠かせません

教育で伝えるべき内容

シャドーAIが企業にもたらすリスク

なぜシャドーAIが問題なのかを、具体的な事例とともに伝えます。「情報漏えいのリスクがある」という抽象的な説明ではなく、「個人アカウントで顧客データを入力すると、そのデータがAIの学習に使われ、他のユーザーへの回答に反映される可能性がある」といった仕組みレベルの説明が効果的です。自社の業務に即した想定シナリオを用いると、従業員の理解が深まります。

公認ツールの正しい使い方

会社が提供している公認AIツールの使い方を実践的に教えます。アカウントの取得方法、基本的な操作手順、業務での具体的な活用例を示します。「議事録の要約」「メール文面のドラフト」「データの整理・分析」など、部門や職種に応じたユースケースを紹介すると実用性が伝わります。

やってはいけない操作の具体例

抽象的な禁止事項だけでなく、具体的な「やってはいけない行為」を明示します。たとえば、顧客リストをそのまま生成AIに貼り付ける、社外秘のプレゼン資料をアップロードして要約させる、個人のスマートフォンアプリ版で業務データを扱うといった事例を挙げます。「これはダメだと思わなかった」という無自覚な違反を防ぐためには、具体例の列挙が最も有効です

効果的な教育・啓発の進め方

階層・部門別にプログラムを設計する

経営層、管理職、一般社員では、シャドーAIに対する関心や必要な知識が異なります。経営層にはビジネスリスクとガバナンスの観点から、管理職には部下の利用管理の方法を、一般社員には日常業務での具体的なルールを中心に伝えます。また、営業部門と開発部門では扱うデータの種類が異なるため、部門特有のリスクシナリオを盛り込むとより実効性が高まります。

一度きりで終わらせず継続的に実施する

生成AIの技術やサービスは数か月単位で変化するため、年1回の研修では追いつきません。四半期ごとのアップデート研修、月次のニュースレター配信、社内チャットでの最新情報共有など、複数のチャネルで継続的に情報を届ける仕組みを構築します。とくに新しいAIサービスの登場時やセキュリティインシデントの発生時は、臨時の注意喚起を迅速に行うことが重要です。

相談窓口を設けて心理的ハードルを下げる

「このデータを入力してもよいか」「このツールは使ってよいか」といった日常的な疑問を気軽に相談できる窓口を設けます。SlackやTeamsに専用チャンネルを設ける方法が手軽で効果的です。相談窓口の存在自体が、従業員が自己判断で生成AIを使う前に立ち止まるきっかけになります。相談しやすい雰囲気をつくるために、「使うな」ではなく「安全に使うために一緒に考える」というスタンスを明確に打ち出すことが大切です。

シャドーAI対策⑤ ワークフロー自動化でAIの個別利用をなくす

ここまでの対策①〜④は、いずれも「従業員が個別に生成AIを使う」ことを前提に、ルール・監視・環境・教育で安全性を確保するアプローチです。対策⑤では発想を転換し、そもそも従業員が個別にAIを使わなくて済む仕組みをつくるという考え方を紹介します。

個人のAI利用を「仕組み」に置き換える発想

シャドーAIが生まれる背景には「この業務、AIがないと終わらない」という現場の切実なニーズがあります。議事録の要約、定型メールの作成、データの整形など、従業員が生成AIを繰り返し使っているルーチンワークは、ワークフロー自動化ツールに組み込むことで仕組み化できます。

ワークフロー自動化とは、複数の業務ステップを事前に定義し、トリガー(きっかけ)に応じて自動で実行する仕組みです。このワークフローの中に生成AIのステップを組み込むことで、人間が毎回AIに手動でプロンプトを入力する必要がなくなります。

この発想がシャドーAI対策として優れている理由は明確です。ワークフローとして定義すれば、使用する生成AIサービス、プロンプトの内容、入出力データの範囲をすべて事前に設計・固定できます。つまり、従業員ごとに異なるプロンプトを入力したり、想定外のデータを送信したりする余地がなくなります。人間の判断に依存するリスクを、仕組みで排除するわけです

安全なワークフローを設計するポイント

生成AIに送信するデータを制御する

ワークフロー内で生成AIにデータを渡す前に、送信する情報と送信しない情報を分離する仕組みを設けます。たとえば、顧客データベースからレポートを自動生成するワークフローであれば、個人名や連絡先をマスキング(仮名化)してから生成AIに送信し、出力結果に元の情報を再結合するという設計が可能です。あらかじめデータの前処理ルールを定義しておけば、人間がうっかり個人情報を入力してしまうリスクを仕組みのレベルで排除できます

ローカルAIを選択肢に入れる

機密性の高いデータを扱うワークフローでは、外部のクラウドAIサービスにデータを送信すること自体を避けたいケースがあります。その場合、社内サーバーやローカル環境で動作する生成AIモデルを利用する選択肢があります。オープンソースのLLM(大規模言語モデル)を自社環境にデプロイすれば、データが社外に一切出ないワークフローを構築できます。処理性能はクラウドの最新モデルに劣る場合がありますが、要約や分類といった定型的なタスクであれば十分な精度で動作するケースが多いです。

使用するモデルとプロンプトを固定する

ワークフロー内で使用するAIモデルのバージョンとプロンプトを固定することで、出力の品質とセキュリティを安定させます。従業員が個別にAIを使う場合、プロンプトの書き方によっては意図せず機密情報を含む出力が生成されるリスクがあります。ワークフローであれば、セキュリティ審査を通過したプロンプトのみが使用され、従業員が自由にプロンプトを変更することはできません。また、特定のモデルバージョンに固定しておくことで、モデルのアップデートによる出力品質の変動も防げます。

まとめ

シャドーAI対策は、1つの施策で完結するものではなく、複数の対策を組み合わせて初めて機能します。まず利用ガイドラインを策定してルールの土台を作り、可視化・検知の仕組みでルールの実効性を担保します。

その上で、企業公認の生成AIアカウントを整備して安全に使える環境を提供し、従業員教育でAIリテラシーを底上げします。

さらに、ワークフロー自動化によって個人がAIを個別利用する必要性そのものを減らせば、シャドーAIの発生リスクを仕組みのレベルで抑えられます。自社の現状がどの段階にあるかを見極め、できるところから順に着手していくことが大切です

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次