生成AIの進化により、ソーシャルエンジニアリング攻撃はかつてないレベルに到達しています。
上司の声をAIがリアルタイムで再現するビッシング、ビデオ会議の参加者全員がディープフェイクだった2,560万ドル事件、メール・電話・チャットを組み合わせたマルチチャネル攻撃。
本記事では、こうした最新の手口を網羅的に整理し、それぞれに対応する具体的な対策をセットで解説します。「自社がやられたらどうするか」を考える出発点として、ぜひ最後までお読みください。
ソーシャルエンジニアリング攻撃とは|生成AIで変わった脅威の全体像
ソーシャルエンジニアリングとは、人間の心理的な隙やミスにつけ込んで機密情報を盗み取る攻撃手法の総称です。技術的な脆弱性ではなく、人間そのものを標的にする点が最大の特徴であり、どれほど高度なセキュリティシステムを導入していても、人がだまされれば突破されてしまいます。
そして今、生成AIの登場によってソーシャルエンジニアリングは根本的な進化を遂げています。従来は攻撃者個人のスキルに依存していた「だます技術」が、AIによって自動化・高精度化・大規模化されたのです。具体的には、以下の3つの変化が起きています。
- なりすましの精度が飛躍的に向上した:音声クローン技術やディープフェイク映像により、上司や取引先の顔と声をリアルタイムで再現できるようになりました
- 攻撃のコストと技術障壁が劇的に下がった:Deepfake-as-a-Service(DaaS)と呼ばれるプラットフォームが2025年に急拡大し、専門知識がなくても高度ななりすまし攻撃を実行できるようになっています
- 攻撃の規模と速度が桁違いになった:生成AIがフィッシングメールの文面作成から送信までを自動化し、従来よりもはるかに速く大量の攻撃を仕掛けることが可能になりました
この記事では、こうした生成AI時代のソーシャルエンジニアリングについて、最新の手口を網羅的に整理し、それぞれに対応する具体的な対策をセットで解説していきます。
なお、生成AIの業務利用に伴うセキュリティリスク全般については「生成AIセキュリティ入門|業務利用のリスク事例と対策」で体系的に解説しています。
ソーシャルエンジニアリングの特徴と心理学的側面
ソーシャルエンジニアリングが長年にわたって有効であり続ける理由は、人間の心理的な弱点を突く攻撃だからです。どれほどテクノロジーが進歩しても、人間の心理構造そのものは変わりません。
攻撃者が悪用する代表的な心理原則は、大きく分けて4つあります。
権威への服従
上司や経営層、あるいは警察・銀行などの権威ある立場を名乗られると、人は疑問を持ちにくくなります。生成AI時代においては、経営者の声や顔をディープフェイクで再現することで、この心理がさらに強力に悪用されるようになりました。
緊急性の演出
「今すぐ対応しないと大変なことになる」と時間的なプレッシャーをかけることで、相手に冷静な判断をさせません。送金詐欺や情報窃取の多くで、この緊急性の演出が使われています。
信頼関係の悪用
同僚や取引先など、すでに信頼関係がある相手を装うことで、警戒心を解きます。SNS上の公開情報をAIで分析し、ターゲットの人間関係を事前に把握した上で攻撃するケースが増えています。
返報性の原理
「先に何かをしてあげた」と思わせることで、相手に「お返しをしなければ」という心理を生み出します。たとえば、偽のIT担当者が「ウイルスを検出したので除去しました」と連絡し、その流れでパスワードを聞き出すといった手口がこれに該当します。
生成AIが登場する以前は、これらの心理テクニックを使いこなすには攻撃者自身に高い対人スキルが必要でした。しかし現在は、AIが最も効果的な文面や話し方を自動生成するため、スキルの低い攻撃者でも高い成功率を実現できるようになっています。
古典的手口から生成AI時代へ|攻撃の進化マップ
ソーシャルエンジニアリングの手口を時系列で整理すると、攻撃がどのように進化してきたかが明確になります。
古典的な手口としては、ショルダーハッキング(肩越しにパスワードを覗き見る)、トラッシング(ゴミ箱から機密書類を回収する)、なりすまし電話(IT担当者や取引先を装って電話で情報を聞き出す)、テールゲーティング(正規社員の後ろについてオフィスに侵入する)などがあります。これらは物理的なアクセスや対面でのやり取りを前提とした手口であり、攻撃の範囲は限定的でした。
インターネットの普及とともに登場したのが、フィッシングメール、スミッシング(SMSを使ったフィッシング)、ビッシング(電話を使ったフィッシング)、偽サイトへの誘導といったデジタルな手口です。これらは物理的な制約を超えて大量のターゲットに攻撃を仕掛けられるようになった反面、不自然な日本語やテンプレート的な文面から見破られることも少なくありませんでした。
そして2024年以降、生成AIの実用化によって攻撃は新たな段階に入りました。AIが生成する完璧な日本語のフィッシングメール、リアルタイムの音声クローニングによるビッシング、ビデオ会議における複数人同時ディープフェイク、SNS上の公開情報をAIで分析したハイパーパーソナライズド攻撃など、従来の「見破るポイント」が通用しなくなる手口が次々と登場しています。
なぜ今、ソーシャルエンジニアリングのリスクが急拡大しているのか
ソーシャルエンジニアリングのリスクが急拡大している背景には、3つの構造的な変化があります。
攻撃ツールの民主化
かつてディープフェイクの作成には高度な技術と計算資源が必要でしたが、2025年にはDaaS(Deepfake-as-a-Service)と呼ばれるサービスが犯罪者向けに広く提供されるようになりました。Cybleのレポートによれば、AI駆動のディープフェイクが2025年の企業なりすまし攻撃の30%以上に関与していたと報告されています。
被害規模の急拡大
日本国内のフィッシング報告件数は2024年に約171万8,036件と過去最多を記録し、前年から約1.44倍に急増しました。フィッシングを起因とするインターネットバンキングの不正送金被害額は86億9,000万円にのぼっています。
海外に目を向けると、ディープフェイクを利用したビッシング攻撃は2025年第1四半期に前四半期比で1,600%以上増加し、米国における生成AIを利用した詐欺被害は2025年1月から9月だけで30億ドルを超えています。
リモートワークの定着
ビデオ会議やチャットツールでのコミュニケーションが日常化したことで、相手の本人確認が難しい環境が常態化しています。対面であれば違和感に気づけるようなケースでも、画面越しでは見破れないことが増えています。
これらの変化が重なった結果、ソーシャルエンジニアリングは2025年以降のサイバーセキュリティにおいて最も深刻な脅威の一つとなっています。
ソーシャルエンジニアリング攻撃の例|生成AI時代の手口と対策を徹底解説
ここからは、生成AIによって進化した6つの主要な攻撃手口と、それぞれに対応する具体的な対策をセットで解説します。手口の仕組みを理解した上で対策を知ることで、自組織にとって何が脅威であり、何を優先すべきかが明確になります。
AIフィッシング|完璧な日本語メールが届く時代の手口と対策
手口:生成AIが作る「見破れない」フィッシングメール
フィッシングメールは、ソーシャルエンジニアリングの中で最も件数が多く、被害範囲も広い手口です。そして生成AIの登場により、フィッシングメールの品質が根本的に変わりました。
従来のフィッシングメールには、不自然な日本語、誤字脱字、機械翻訳的な表現など、見破るための手がかりがありました。しかし生成AIは、ネイティブと区別がつかない自然な日本語を生成します。さらに、ターゲット企業の業種、取引先、社内用語に合わせてカスタマイズされた文面を自動で大量生成することが可能です。
フィッシング対策協議会の報告によれば、2024年に届いたフィッシングメールのうち約75.1%が、実在するサービスのメールアドレスを使用した「なりすまし」メールでした。これは送信元のドメインまで偽装されているため、受信者がメールアドレスを確認するだけでは本物と偽物の区別がつかないことを意味します。
また、PhaaSと呼ばれるPhishing-as-a-Serviceの存在も脅威を拡大させています。これはフィッシング攻撃に必要なツール一式をクラウドサービスとして提供するもので、技術的な知識がない攻撃者でもサブスクリプション型で高度なフィッシング攻撃を実行できるようになっています。
加えて、生成AIはメールフィルターの回避技術も進化させています。テキストの中に非表示の制御コードを混ぜることで、人間の目には正常に見える文面でありながらセキュリティフィルターをすり抜ける手法が2024年以降に多数確認されています。
対策:メールセキュリティと送信ドメイン認証(SPF/DKIM/DMARC)
AIフィッシングへの対策は、人間の判断力だけに頼らず、技術的な防御層を重ねることが基本です。
最も重要な技術的対策は、送信ドメイン認証の導入です。SPF、DKIM、DMARCという3つの技術を組み合わせることで、自社ドメインが詐称されたメールを受信側で検出・拒否することが可能になります。特にDMARCは、認証に失敗したメールを受信側でどう扱うかのポリシーを指定できる仕組みであり、rejectポリシーに設定することで、なりすましメールが社員の受信トレイに届くリスクを大幅に低減できます。
迷惑メール対策推進協議会は2024年7月に「送信ドメイン認証技術 DMARC 導入ガイドライン」を公開しており、導入の具体的な手順が整理されています。
次に重要なのは、メールフィルタリングとセキュリティ製品の最新化です。AIによるフィルター回避技術が進化している以上、防御側もAIを活用した検知エンジンを導入し、既知のフィッシングパターンだけでなく未知の攻撃パターンも検出できる体制を整える必要があります。
そして技術的対策と同じくらい重要なのが、社員への教育です。AIが生成するフィッシングメールは文面だけでは見破れないケースが増えているため、「メールに記載されたURLを直接クリックしない」「公式アプリや公式サイトから直接アクセスする」「少しでも違和感を覚えたら情報システム部門に報告する」というルールを徹底することが有効です。
ディープフェイクビッシング|上司の声で電話がかかってくる手口と対策
手口:音声クローンとリアルタイム通話偽装
ビッシング(Voice Phishing)は、電話を使って相手をだまし、情報や金銭を詐取する手口です。従来は攻撃者自身が声色を変えたり、台本に沿って演技したりする必要がありましたが、AI音声クローン技術の登場によって状況が一変しました。
現在の音声クローン技術は、わずか数秒の音声サンプルから特定の人物の声を高精度に再現できます。オンライン上の会議録画、SNSに投稿された動画、企業サイトのインタビュー動画など、公開されている音声データがそのまま攻撃の素材になります。
2025年第1四半期には、ディープフェイクを利用したビッシング攻撃が前四半期比で1,600%以上増加したというデータがあります。攻撃者はXanthorox AIなどのツールを使い、音声クローニングからリアルタイム通話配信までを自動化しています。これらのツールはMicrosoft TeamsやZoomなどの企業向け通話プラットフォームとも統合可能であり、社内コミュニケーションの中に自然に紛れ込むことができます。
具体的な攻撃シナリオとしては、経営者の声で財務担当者に緊急の送金を指示するケース、IT部門を装ってパスワードリセットを求めるケース、取引先の担当者の声で振込先口座の変更を依頼するケースなどがあります。
特に危険なのは、電話という媒体そのものが持つ心理的な影響力です。メールであれば立ち止まって確認する余裕がありますが、電話ではリアルタイムのやり取りの中で即座に判断を求められます。聞き覚えのある上司の声で「今すぐ対応してほしい」と言われた場合、その場で疑いを持つことは極めて難しくなります。
対策:帯域外検証(OOBV)と多要素認証プロトコル
ディープフェイクビッシングへの最も有効な対策は、帯域外検証(Out-Of-Band Verification:OOBV)です。これは、受けた指示の正当性を、その指示が来た経路とは別の経路で確認するという原則です。
たとえば、電話で送金指示を受けた場合、その場で了承するのではなく、一度電話を切り、自分が知っている番号から相手に折り返して内容を確認します。またはメールやチャットなど電話以外の経路で確認を取ります。ポイントは、攻撃者が用意した通信経路の上ではなく、自分が主体的に選んだ経路で確認を行うことです。
組織レベルでは、以下のルールを整備することが重要です。
一定金額以上の送金や口座変更には、必ず複数の承認者による確認を要求する仕組みを導入します。また、電話での指示だけで送金や情報提供を実行しないというポリシーを全社に周知します。
加えて、「確認をとることは失礼ではない」という文化の醸成が不可欠です。上司からの電話を疑うことに心理的な抵抗を感じる社員は多いですが、「確認プロセスは信頼の欠如ではなく、セキュリティの基本動作である」というメッセージを経営層自らが発信することが重要です。
ビデオ会議ディープフェイク|全員が偽物だった2,560万ドル事件の手口と対策
手口:リアルタイム映像生成と複数人同時なりすまし
ビデオ会議のディープフェイクは、ソーシャルエンジニアリングの進化を象徴する手口です。2024年2月に発覚した英国設計事務所Arupの事件は、その脅威の深刻さを世界に示しました。
この事件では、Arupの香港オフィスに勤務する財務担当者が、CFO(最高財務責任者)からの機密取引を依頼するメールを受け取りました。担当者は当初フィッシングを疑いましたが、その後参加したビデオ会議で、CFOを含む複数の幹部の顔と声を確認したことで安心し、合計15回の送金を実行しました。総額は2億香港ドル、約2,560万米ドルに達しています。
調査の結果、ビデオ会議に参加していた幹部は全員がAI生成のディープフェイクであったことが判明しました。攻撃者は、オンライン上で公開されていた会議動画やインタビュー映像からこれらのディープフェイクを作成していたとされています。
この事件が示す重要なポイントは、「見て確認した」ことが安全の保証にならなくなったという事実です。ビデオ会議はそもそも本人確認の手段として信頼されてきましたが、ディープフェイク技術の進歩により、その信頼が根底から揺らいでいます。
Gartnerは、2026年までに企業の30%が顔認証ベースの本人確認ツールを信頼しなくなると予測しています。
対策:映像検証テクニックと会議セキュリティポリシー
ビデオ会議ディープフェイクへの対策は、技術的な検証と運用ルールの両面から実施する必要があります。
まず、リアルタイムで使える映像検証テクニックを知っておくことが重要です。現在のディープフェイク技術にはまだ弱点があり、以下のような方法で崩すことが可能です。
相手に顔を90度横に向けてもらう方法が、現時点で最も効果的です。2026年時点のディープフェイクモデルの多くは正面向きのデータで訓練されているため、完全な横顔になると耳や顎のラインが歪んだり消えたりする現象が起きます。
また、照明条件の変更を依頼する方法もあります。ライトの向きを変えてもらう、窓のそばに移動してもらうなどの依頼により、ディープフェイクが光の変化に追従できない場合があります。
加えて、肌のテクスチャに注目する方法もあります。AIが生成した映像は肌が過度に滑らかで、毛穴やシワが不自然に欠落していることがあります。
ただし、これらの検証テクニックは技術の進歩とともに無効化される可能性があるため、運用ルールの整備がより本質的な対策となります。
具体的には、ビデオ会議での指示だけで送金や機密情報の共有を実行しないというポリシーの策定が必要です。高額な送金や重要な意思決定については、ビデオ会議の後に別経路(電話や対面)で改めて確認するプロセスを必須化します。
また、予定にない突発的な会議招集に対する警戒レベルを上げることも有効です。Arupの事件でも、攻撃は予期しない会議招集から始まっています。突然の機密取引への参加依頼などは、それ自体が攻撃の兆候である可能性を念頭に置くべきです。
SNSを悪用したソーシャルエンジニアリング|偵察から攻撃までの手口と対策
手口:公開情報の収集とAIによるプロファイリング
SNSは、攻撃者にとって宝の山です。ソーシャルエンジニアリング攻撃の多くは、実際の攻撃行為の前に「偵察」のフェーズを経ています。そして生成AIは、この偵察フェーズの効率と精度を飛躍的に高めました。
攻撃者はまず、ターゲット企業の従業員のSNSアカウントから情報を収集します。LinkedInの職歴や所属部署、Xでの発言内容、Facebookの友人関係や趣味の情報など、断片的な情報をAIが統合して詳細なプロファイルを構築します。
このプロファイルを基に、ターゲットに合わせてカスタマイズされた攻撃が実行されます。たとえば、「先日の○○カンファレンスでお話しした件ですが」と実際に参加したイベントに言及するフィッシングメールや、共通の知人を装った接触など、ターゲットが警戒心を持ちにくい文脈を作り出します。
2025年のセキュリティレポートでは、攻撃者が大量のフィッシングではなく、ターゲットを絞った信頼性の高い攻撃へとシフトしていることが報告されています。これはまさにSNSの情報とAIの分析能力の組み合わせによるものです。
さらに、SNS上で偽のアカウントを作成し、ターゲットと長期間にわたって信頼関係を構築した上で攻撃に利用するケースも増えています。AIが生成した顔写真をプロフィールに使用し、一見本物に見えるビジネスパーソンのアカウントを運用することで、つながり申請を承認させ、内部情報を引き出していくのです。
対策:SNSプライバシー設定と情報公開ポリシー
SNSを悪用した偵察への対策は、個人レベルと組織レベルの両方で実施する必要があります。
個人レベルでは、SNSアカウントのプライバシー設定を定期的に見直すことが重要です。特に、所属企業名、役職、業務内容、出張先やイベント参加の投稿などは、攻撃者にとって価値の高い情報です。公開範囲を限定するか、そもそも投稿しないという判断も必要になります。
LinkedInについては、業務上の理由でプロフィールを公開する必要がある場合でも、つながり一覧の公開設定、投稿の公開範囲、メールアドレスの表示設定などを最小限に絞ることが推奨されます。
SNS上の公開情報がどのように悪用されるかの詳細は「「えっ、うちの社員が?」シャドーAI放置で起きる情報漏えいの恐怖と回避策」もあわせてご覧ください。
組織レベルでは、SNSでの情報公開に関するガイドラインを策定し、全社に周知することが有効です。具体的には、使用しているシステムやツールの情報を公開しない、社内の組織構造や承認フローに関する情報を外部に公開しない、取引先の名称や担当者情報をSNSに記載しない、といったルールを明文化します。
また、自社の従業員になりすました偽アカウントの監視も重要です。定期的に自社名や幹部名で検索を行い、不審なアカウントを発見した場合は速やかに報告・対処する体制を整えておきます。
ビジネスメール詐欺(BEC)|AIで精度が上がったなりすましの手口と対策
手口:経営者・取引先の文体を模倣した送金指示
ビジネスメール詐欺(BEC:Business Email Compromise)は、経営者や取引先を装ったメールで送金や機密情報の送付を指示する手口です。ソーシャルエンジニアリングの中でも特に被害額が大きく、1件あたりの損失が数百万円から数千万円に及ぶことも珍しくありません。
生成AIの登場により、BECの精度は飛躍的に向上しました。従来のBECでは、攻撃者が経営者の文体を模倣するには過去のメールを入手するなどの手間が必要でした。しかし現在は、公開されているスピーチやインタビュー記事、SNSの投稿などからAIがその人物の文体や語彙の特徴を学習し、本人と区別がつかないメールを自動生成します。
典型的な攻撃パターンとして、以下のようなものがあります。
CEO詐欺では、経営者を装って財務担当者に「至急、以下の口座に送金してほしい。機密案件なので他の人には言わないように」と指示します。緊急性と秘匿性の両方を強調することで、通常の承認プロセスを迂回させようとするのが特徴です。
取引先詐欺では、実在の取引先を装い「振込先の口座が変更になりました」と通知します。タイミングを実際の請求サイクルに合わせてくるケースもあり、違和感を持ちにくい手口です。
弁護士・会計士詐欺では、M&Aや訴訟対応などの機密性の高いシナリオを持ち出し、外部の専門家を装って送金を指示します。
対策:送金承認フローの多段階化と異常検知
BECへの対策の根幹は、送金や口座変更に関する承認フローを厳格化することです。
まず、一定金額以上の送金には必ず2名以上の承認を必須化します。これにより、1名がだまされた場合でも、もう1名が確認する段階で異常に気づける可能性が高まります。
次に、振込先口座の変更依頼については、メールだけで処理を完了させず、必ず電話や対面で相手に直接確認するプロセスを設けます。この際、メールに記載された連絡先ではなく、あらかじめ把握している連絡先を使うことが重要です。
技術的な対策としては、メールの異常パターンを検知するAIベースのセキュリティツールの導入が有効です。送信者のアドレスや文面の微妙な違い、通常とは異なる時間帯での送信、過去に例のない送金先への指示など、人間では気づきにくい異常をシステムが自動検知します。
加えて、「経営者からの緊急依頼」を装った攻撃に備えて、経営層自身が「自分がメールで緊急送金を指示することはない」と明言し、全社に周知しておくことも効果的な対策です。
業務プロセスの自動化によって人的ミスを減らすアプローチについては「ワークフロー自動化のデータ保護|導入前に知るべき全知識」もご参照ください。
マルチチャネル攻撃|メール×電話×チャットを組み合わせる最新手口と対策
手口:複数経路からの同時攻撃で信頼性を積み上げる
2025年に急拡大している最も危険な攻撃手法が、マルチチャネル攻撃です。これは、メール、電話、チャット、SNSなど複数のコミュニケーション経路を組み合わせ、ターゲットの警戒心を段階的に解いていく手口です。
セキュリティ企業revel8の調査によれば、2つ以上のコミュニケーション経路を使った攻撃は、単一経路の攻撃と比較して、ターゲットが防御行動をとらない確率が最大10倍に跳ね上がります。
具体的な攻撃シナリオを見てみましょう。まず、攻撃者はターゲットにメールで「新しいプロジェクトについて」と連絡します。次に、経営者の音声クローンを使った電話で「先ほどメールした件、確認してもらえたか」とフォローします。さらに、WhatsAppやSlackで関連資料を送付し、その資料を開かせることでマルウェアに感染させたり、認証情報を入力させたりします。
このように、複数の経路から矛盾のないストーリーを組み立てることで、「メールも来ていたし、電話でも確認されたし、チャットで資料も送られてきた。本物に違いない」という確信を積み上げていくのです。
AIエージェントと自動化技術の発展により、このような複数経路の同時攻撃を1人の攻撃者が効率的に実行できるようになっている点も、脅威を拡大させている要因です。
また、攻撃の舞台はメールだけではなくなっています。Signal、WhatsApp、Telegramなどの暗号化メッセージアプリは、企業のセキュリティ監視が届きにくい領域であり、攻撃者はこうした「監視の死角」を積極的に狙っています。
対策:チャネル横断の検証ルールと報告フロー
マルチチャネル攻撃への対策は、「複数の経路で確認されたから安全」という前提を捨てることから始まります。
最も重要なルールは、どの経路で指示を受けたとしても、高リスクなアクション(送金、パスワードリセット、機密情報の共有など)を実行する前には、自分から主体的に別経路で確認するというプロセスを確立することです。攻撃者が用意した経路ではなく、自分が選んだ経路で確認するという点が鍵です。
組織レベルでは、以下の対策を実施します。
暗号化メッセージアプリを通じた業務指示に関するポリシーを明確化します。たとえば「WhatsAppやLINEで送金指示を行うことはない」と定め、こうした経路からの指示は疑うべきであると周知します。
また、不審なコミュニケーションに気づいた際の報告フローを簡潔かつ明確に整備します。報告のハードルが高いと、「たぶん大丈夫だろう」と自己判断してしまうリスクがあります。報告にかかるステップは少なければ少ないほど有効です。
定期的な模擬訓練を実施し、マルチチャネル攻撃のシナリオを体験させることも重要です。メール単体のフィッシング訓練だけでなく、電話やチャットを組み合わせた複合的なシナリオでの訓練を行うことで、実際の攻撃に遭遇した際の対応力を高めることができます。
ソーシャルエンジニアリングの事件簿|被害額で見る実際のインシデント
ソーシャルエンジニアリング攻撃の脅威を実感するために、実際に発生した重大インシデントを被害額とともに振り返ります。これらの事件は、どの企業にとっても他人事ではないことを示しています。
香港多国籍企業の2,560万ドルビデオ会議詐欺
2024年2月、英国の設計事務所Arupの香港オフィスで発生した事件は、ディープフェイクを使ったソーシャルエンジニアリングの被害として世界最大級のものです。
事件の経緯を時系列で整理すると、まず財務担当者がCFOを名乗る人物からフィッシングメールを受け取り、機密取引の実行を依頼されました。担当者は当初、このメールをフィッシングだと疑っています。しかし、続いて招集されたビデオ会議にCFOや他の幹部が参加していることを確認し、警戒を解いてしまいました。その結果、5つの異なる銀行口座に対して計15回の送金を実行し、総額2億香港ドル(約2,560万米ドル)が流出しました。
この事件から学べる教訓は複数あります。
まず、ビデオ会議における映像と音声の確認は、本人確認の手段としてもはや十分ではないということです。ArupのCIOであるRob Greig氏はこの事件を「テクノロジーで強化されたソーシャルエンジニアリング」と表現し、システムへの侵害はなく、純粋に人間がだまされたことによる被害であったと説明しています。
次に、最初の段階でフィッシングを疑ったにもかかわらず、その後のビデオ会議で安心してしまった点です。攻撃者は「疑いを解消するための証拠」としてビデオ会議を活用しました。つまり、ターゲットが一度疑問を持っても、次の段階で安心させる仕組みが設計されていたのです。マルチチャネル攻撃の典型例といえます。
AI音声クローンによる暗号資産詐欺(1,850万ドル)
2025年1月に香港で発覚した事件では、攻撃者がAI音声クローン技術を使って企業の財務マネージャーになりすまし、WhatsApp上でターゲットを説得して約1億4,500万香港ドル(約1,850万米ドル)を詐欺的な暗号資産口座に送金させました。
この事件のポイントは、ビデオ通話ではなくメッセージアプリ上のやり取りで完結している点です。音声メッセージやボイスノートを活用し、AIが生成した音声で相手を信頼させました。ビデオ会議ほどの技術的複雑さは必要なく、攻撃のハードルが低い点が特徴です。
また、暗号資産口座への送金という点も重要です。従来の銀行口座への送金であれば追跡や凍結が可能な場合がありますが、暗号資産は匿名性が高く、一度送金すると資金の回収が極めて困難です。攻撃者は、回収されにくい送金先を意図的に選んでいます。
日本国内のフィッシング被害|2024年の報告件数171万件超の実態
日本国内においても、ソーシャルエンジニアリングの被害は深刻な水準に達しています。
フィッシング対策協議会の集計によれば、2024年1年間のフィッシング報告件数は171万8,036件と過去最多を記録しました。これは前年の約1.44倍にあたり、2024年12月単月だけでも23万件を超えて月次でも過去最多となっています。
フィッシングを起因とするインターネットバンキングの不正送金被害額は86億9,000万円にのぼり、被害対象はクレジットカード会社、銀行、宅配事業者、通信事業者、ECサイト、暗号資産取引所など多岐にわたっています。
また、2024年後半からは企業を標的としたボイスフィッシングの被害も報告されるようになっています。攻撃者が金融機関になりすまして企業の従業員から電話でメールアドレスを聞き出し、そこからフィッシングサイトに誘導する手口であり、事前に電話でやり取りしているため、後から届くフィッシングURLへのアクセス率が高くなるという特徴があります。警察庁は2024年12月に企業向けの注意喚起を発表しています。
これらの数字が示しているのは、フィッシングやソーシャルエンジニアリングが「一部の不注意な人が引っかかるもの」ではなく、組織全体に影響する構造的な脅威であるという現実です。
ソーシャルエンジニアリング対策の全体設計|組織で取り組むリスク対策
ここまで各手口に対応する個別の対策を解説してきましたが、ソーシャルエンジニアリングに対する防御を組織として機能させるには、技術・人・組織の3つの領域を体系的に整備する必要があります。このセクションでは、個別の対策を全体像の中に位置づけ、経営層や管理職が優先的に取り組むべき施策を整理します。
技術的対策の例|ゼロトラストとAI検知ツールの導入
メールセキュリティの多層化
メールは引き続きソーシャルエンジニアリング攻撃の最大の入口です。技術的対策は多層で構成する必要があります。
第1層:送信ドメイン認証(SPF/DKIM/DMARC)
自社ドメインのなりすましを防ぐための基盤技術であり、2024年7月に迷惑メール対策推進協議会がDMARC導入ガイドラインを公開したことで、導入のハードルは以前より下がっています。DMARCポリシーは最終的にrejectに設定することを目指すべきです。quarantineでは迷惑メールフォルダに入るだけであり、受信者が正規メールも疑うようになるという逆効果が報告されています。
第2層:AI搭載のメールフィルタリング
生成AIが作るフィッシングメールは従来のパターンマッチングでは検出が困難なため、文面の意図や文脈を分析するAIベースの検知エンジンが不可欠になっています。
第3層:BIMI(Brand Indicators for Message Identification)やブランドアイコン正規メールの視認性を高める技術
送信ドメイン認証に合格したメールにブランドロゴを表示することで、受信者が正規メールを直感的に識別できるようになります。GmailやApple iCloudメールなど主要なメールサービスが対応を開始しています。
ディープフェイク検知ツールの選定と限界
ディープフェイク検知ツールは急速に発展している分野ですが、その限界も理解しておく必要があります。
検知ツールは、映像のメタデータ分析、視覚的な不整合の検出、音声パターンの解析などを通じて、コンテンツがAI生成かどうかを判定します。しかし、防御側の検知ツールの精度は、実験室環境と実環境で大きな差があることが報告されています。Keepnet Labsのレポートによれば、防御側のAI検知ツールの有効性は、管理された実験室環境から実環境に移行すると45〜50%低下する場合があります。
このため、ディープフェイク検知ツールを「唯一の防御線」として依存するのは危険です。検知ツールは補助的な防御層として位置づけ、運用ルールや人的対策と組み合わせて多層防御を構成することが重要です。
ゼロトラストアーキテクチャの適用
ゼロトラストとは、「誰も信頼しない」ことを前提としたセキュリティモデルです。従来の「社内ネットワークは信頼できる」「一度認証されたユーザーは安全」という前提を排し、すべてのアクセスに対して継続的な検証を行います。
ソーシャルエンジニアリング対策の文脈でゼロトラストが特に有効なのは、仮に1人の従業員がだまされて認証情報を漏洩した場合でも、アクセスできる範囲を最小限に限定できる点です。最小権限の原則に基づき、各ユーザーが業務に必要な最低限のリソースにのみアクセスできるように設計することで、被害の拡大を抑制します。
また、多要素認証(MFA)の導入は必須です。パスワードだけでは、フィッシングで盗まれた時点で防御が崩壊します。特にFIDO2/パスキーの導入が推奨されます。パスキーはユーザーが文字列を入力する場面そのものが存在しないため、フィッシングで盗まれるべき認証情報がそもそも存在しないという構造的な優位性があります。フィッシング対策協議会のレポートでもパスキーの有効性が取り上げられています。
人的対策の例|セキュリティ研修と模擬訓練
実践型フィッシング訓練の設計
セキュリティ研修で最も効果的なのは、実際の攻撃を模した模擬訓練です。座学やeラーニングだけでは、実際の攻撃に遭遇した際の判断力は身につきません。
具体的には、従業員に対して模擬的なフィッシングメールを送信し、クリック率やURL入力率を測定する訓練を定期的に実施します。あるセキュリティ企業の報告では、約12回のシミュレーション訓練を重ねた結果、検出成功率が34%から74%に向上したとされています。
ただし、訓練は画一的に行うのではなく、役職や部署に応じたリスクプロファイルに基づいて設計することが重要です。たとえば、財務部門には送金詐欺のシナリオ、IT部門にはパスワードリセット詐欺のシナリオ、経営層にはCEO詐欺のシナリオというように、実際に遭遇する可能性の高い攻撃パターンで訓練を行います。
ディープフェイク体験型研修
2025年以降のセキュリティ研修では、ディープフェイクの脅威を体験的に学ぶプログラムの導入が推奨されています。
従来の「不審なメールに注意しましょう」という啓発では、ディープフェイクビッシングやビデオ会議詐欺には対応できません。実際にAIで生成された音声や映像を体験し、どのような品質で、どのような文脈で使用されるかを知ることで、実戦的な警戒心を養うことができます。
研修では特に、「知っている人の声だから安全」「ビデオ会議で顔を確認したから安全」という従来の判断基準がもはや通用しないことを繰り返し伝える必要があります。代わりに、「どんなに確信が持てても、高リスクな行動の前には別経路で確認する」というルールを徹底します。
組織的対策の例|ポリシーと承認フローの見直し
送金・情報提供の承認ルール
ソーシャルエンジニアリングの被害を防ぐために最も費用対効果が高い施策は、承認フローの見直しです。技術的な投資が不要であり、ルールの変更だけで即座に実施できます。
具体的には、以下の承認ルールを策定し、例外なく適用します。
送金に関しては、一定金額(たとえば50万円)以上の送金には必ず2名以上の承認者が必要とします。新規の送金先や口座変更は、メールやチャットの指示だけで処理せず、電話または対面で相手に直接確認します。緊急の送金依頼こそ慎重に対応し、「緊急」や「機密」を理由に通常のプロセスを省略しないルールを徹底します。
情報提供に関しては、パスワード、認証情報、個人情報を電話やメールで伝えることは原則として行いません。外部からの問い合わせに対して社内情報を提供する際は、相手の身元を別経路で確認するプロセスを設けます。
インシデント発生時の報告・対応フロー
どれだけ対策を講じても、攻撃を100%防ぐことはできません。重要なのは、攻撃に気づいた際の初動を迅速にし、被害を最小化できる体制を整えておくことです。
インシデント報告フローのポイントは、報告を簡単にすることです。「不審なメールを受け取った」「怪しい電話がかかってきた」「誤ってリンクをクリックしてしまった」といった報告を、たとえば専用のチャットチャンネルへの一言の投稿で完了できるようにします。
また、報告した社員を責めない文化を醸成することが極めて重要です。「フィッシングメールをクリックしてしまった」と報告した社員を叱責する組織では、次回からは報告されなくなります。報告を促進するためには、「早期報告は組織を守る行動である」というメッセージを経営層が明確に発信する必要があります。
報告を受けた後の対応フローとしては、情報システム部門やCSIRT(Computer Security Incident Response Team)への即座のエスカレーション、影響範囲の確認、関連するアカウントのパスワード変更や一時凍結、送金の停止依頼、再発防止策の検討と全社への共有、という一連のプロセスを文書化し、定期的に訓練を通じて検証します。
インシデント対応フローの構築にあたっては、「AIエージェントセキュリティ入門|自律型AIの業務導入のリスクと対策」も参考になります。
まとめ
ソーシャルエンジニアリングとは、人間の心理的な隙を突いて機密情報を盗み取る攻撃手法であり、生成AIの登場によってその精度・規模・速度が根本的に変わりました。
ディープフェイク音声によるビッシング、ビデオ会議の全員がAI生成だった2,560万ドル事件、SNSの情報をAIで分析したハイパーパーソナライズド攻撃、複数経路を同時に使うマルチチャネル攻撃など、従来の「見破り方」では対応できない手口が急増しています。
対策の基本は、帯域外検証(別経路での確認)の徹底、送金・情報提供の承認フロー厳格化、送信ドメイン認証やゼロトラストなどの技術的防御、そして模擬訓練を通じた社員のリテラシー向上です。
技術・人・組織の3つの領域を体系的に整備し、「確認をとることは信頼の欠如ではなく、セキュリティの基本動作である」という文化を全社で共有することが、生成AI時代のソーシャルエンジニアリングに対抗する最大の武器となります。

