AI を活用したフィッシングとは何か、LLM がフィッシングのリスクを高める仕組み

過去 12 か月間に攻撃者が実行した数百万件のキャンペーンでは、フィッシング メールやメッセージが大多数の侵入経路となってきました。人間の行動は修正不可能で、トレーニングには時間がかかります。脅威レベルを高めているのが、大規模言語モデル (LLM) です。LLM は現在、攻撃の作成を加速し、手がかりを合理化し、メッセージのカスタマイズを自動化するために使用されています。この記事では、AI を利用したフィッシング攻撃についてさらに詳しく調べ、組織が保護された状態を維持する方法を紹介します。
#image_title

AIと機械学習が企業のサイバーセキュリティを向上させる方法

複雑な脅威の状況をすべての点と点をつなぐ

#image_title

AI を活用したセキュリティを実際に体験してください。

脅威を即座に検出して対応する Stellar Cyber​​ の最先端の AI をご覧ください。今すぐデモをスケジュールしてください。

AIフィッシングの舞台設定:クリック率は2つの要因によって左右される

フィッシング攻撃は、サイバーセキュリティにおける多くの攻撃と同様に、周期的な存続期間を持っています。特定の種類のフィッシング攻撃が特に人気を博し、成功すると、セキュリティ スタッフの目に留まり、従業員はその特殊性についてトレーニングを受けます。しかし、ソフトウェア パッチとは異なり、従業員は長年の職務経験とフィッシング トレーニングにもかかわらず、依然として攻撃に引っかかってしまうため、満足のいく結論は出ません。

さらに深く掘り下げると、組織のフィッシング対策レベルを評価する最も一般的なオプションは、全体的なクリックスルー率です。これにより、内部で作成された模擬フィッシングメールに誰が騙されたかを簡単に把握できます。ただし、この指標は変動しやすいものです。また、CISO が時間とリソースを集中的にかけたフィッシングトレーニングが効果的であるという証拠を探している場合、評価リーダーはクリックスルー率を下げようとして、模擬フィッシング攻撃の複雑さを軽減しようとするかもしれません。これは、間接的に組織の全体的なセキュリティ体制を食いつぶすことになります。

2020 年、研究者のミシェル・スティーブス、クリステン・グリーン、メアリー・テオファノスは、これらの無限に変化するテストを単一のフィッシング スケール (PDF) に分類することに成功しました。その際に、フィッシング メールの「難易度」は、次の XNUMX つの重要な特性によって決まることを突き止めました。

    • メッセージに含まれる手がかり。別名「フック」とも呼ばれ、悪意のあるメッセージであることが明らかになる可能性のあるメッセージのフォーマットやスタイルの特性です。
    • ユーザーのコンテキスト。
  • 一般的に、手がかりが少ないほどクリックスルー率は高くなり、メールがユーザー自身のコンテキストとどれだけ密接に一致しているかによってもクリックスルー率は高くなります。スケールをわかりやすくするために、次の例では、30 ポイント中 32 ポイントの個人的な一致という定型的な結果が出ています。

    NIST は組織として安全性を重視しており、このことはラボのマネージャーや IT チームに特に当てはまります。この状況を利用するために、NIST のディレクターの 1 人を装った偽の Gmail アドレスからテスト メールが作成されました。件名には「必ずお読みください」と書かれ、本文では受信者をファースト ネームで呼び、「ぜひお読みください」と書かれています。次の行には URL があり、「安全要件」というテキストが書かれています。最後には、ディレクター (と思われる) からの簡単なサインオフが書かれています。

    このメール、および高度に整合された安全要件に焦点を当てた他のメールの平均クリックスルー率は 49.3% でした。驚くほど短い XNUMX 行の攻撃であっても、その有効性を決定するのはメッセージの手がかりと個人的な整合です。

    AIフィッシングが両方のレバーをいかに強化するか

    従業員のフィッシング トレーニングでは、攻撃が起こる前に受信者が攻撃の背後を覗く方法を提供するため、ヒントが大部分を占めます。その主なものはスペルや文法の誤りです。このことへの注目があまりにも広まっているため、フィッシング メールにスペルの誤りが意図的に追加され、脆弱なユーザーを狙っていると考える人が多くいます。

    素晴らしいアイデアではありますが、このアプローチは大多数の人々をフィッシング攻撃に対してさらに脆弱にします。攻撃者が今やるべきことは、ざっと目を通しただけで十分に納得できる程度に、メッセージの文法と書式を完璧にすることだけです。LLM は、ネイティブ レベルの流暢さを無料で提供してくれるので、この目的に最適なツールです。

    そして、フィッシングメールの最も明らかな特徴を排除することで、攻撃者は優位に立つことができます。スティーブス氏らの研究は、手がかりよりも、攻撃が受信者自身の前提にどれだけ合致しているかが重要であることを認めています。LLM が特に優れているのは、この分野です。

    プライバシー侵害に驚くほど効果的な法学修士課程

    個人的な調整は、ターゲットを知ることで達成されます。請求書フィッシング攻撃が財務部門以外のほぼすべての部門で失敗するのはこのためです。ただし、攻撃者が何ヶ月もの間、野外で被害者を研究することはまずありません。彼らの執拗な利益追求の動機により、攻撃は効率的である必要があります。

    幸運なことに、LLMは広範囲にわたるデータ収集と推論キャンペーンをほぼ無料で実施することができます。 ロビン・スターブらによる2024年の研究 (PDF) は、事前に訓練された LLM がテキストから個人情報をどの程度正確に推測できるかを研究した最初の研究です。520 件の仮名化された Reddit プロフィールからメッセージが収集され、いくつかのモデルにかけられて、各コメント投稿者の年齢、居住地、収入、教育、職業がどのようなものであるかが調べられました。

    これがどのように機能するかを理解するために、通勤に関するコメントを考えてみましょう。 「私は…フックターンを待って動けなくなってしまう」

    GPT-4 は、メルボルンで特に使用される交通操作である「フックターン」という小さな手がかりを捉えることができました。まったく異なるスレッドやコンテキストでのその他のコメントには、「34D」の価格に関する言及や、高校から帰宅後にツインピークスを観ていたという個人的な逸話が含まれていました。総合的に、GPT はユーザーがメルボルンに住む 45 ~ 50 歳の女性であると正しく推測することができました。

    1d4559950da7e6799ec76a56595aaa72.png

    研究者らは、このプロセスを 520 人のユーザー プロファイルすべてで繰り返し、GPT-4 が投稿者の性別と出生地をそれぞれ 97% と 92% の確率で正しく推測できることを発見しました。職場でのフィッシングに関する以前の研究の分析の影で、LinkedIn など、匿名性の低い他のサイト上の情報量について立ち止まって考えると、ソーシャル メディアの投稿から LLM が詳細な個人的資質を推測する能力は特に憂慮すべきものになります。

    この推論プロセスは、全体として、人間のデータセットが同じ結論を導き出すよりも 240 倍速く、コストもほんのわずかです。憶測はさておき、AI を利用したフィッシングを非常に強力にしているのは、この最後の要素、つまりコストです。

    LLM がフィッシングの経済性を強化

    人力によるフィッシング キャンペーンの利益は、クリックする人の数によって制限されるのではなく、新しいメールやカスタマイズしたメールを作成するという労力を要する作業によって制限される。フィッシング攻撃者の動機は圧倒的に金銭的な利益であるため、カスタマイズと送信ボタンのバランスを取ることで、一部の活動の規模が抑えられている。

    LLM は、わずか数分で大量のフィッシング メッセージを作成できるようになり、さらに各被害者のカスタマイズ方法を推測できるようになったため、攻撃者のツールキットはかつてないほど充実しています。

    Stellar Cyber​​のペースを維持する

    従業員のトレーニングには時間がかかります。また、フィッシング攻撃の進化のスピードは、何千もの企業を危険にさらす恐れがあります。この脅威レベルの増加に対処するため、Stellar Cyber​​ は、攻撃者が従業員をすり抜けても侵入を阻止する統合ネットワークおよびエンドポイント防御を提供します。

    エンドポイント監視により、潜在的なマルウェアの展開をリアルタイムで把握でき、ネットワーク保護により、攻撃者がそこに足掛かりを築くのを阻止できます。ユーザーとエンティティの行動分析(UEBA)を使用すると、あらゆる行動を通常の状況と照らし合わせて評価できるため、アカウント侵害の兆候をさらに特定しやすくなります。チームを保護し、攻撃者を寄せ付けません。 ステラサイバーがオープン XDR.

    良すぎるように聞こえる
    本当でしょうか?
    ぜひご自身でご覧ください!

    上へスクロール