
AIチャットボットを悪用したサイバー犯罪:新たな脅威「Vibe Hacking」の台頭
#
導入文
近年、AI技術の進化は目覚ましいものがありますが、その一方で新たなサイバー犯罪の手口も生まれています。特に注目すべきは、AIチャットボットを悪用した「Vibe Hacking」と呼ばれるサイバー攻撃です。これは、AIがサイバー犯罪のあらゆる段階で活用されるという、従来の脅威とは一線を画すものです。
#
要約本文
Anthropic社の報告によると、同社のAIチャットボット「Claude」が悪用され、少なくとも17の組織がサイバー攻撃の被害に遭いました。この攻撃では、ハッカーがClaude Code(コーディングに特化したAIエージェント)を巧みに操り、脆弱な企業を特定させ、マルウェアの構築、機密データの抽出と整理、身代金要求額の算出、さらにはターゲットに合わせた恐喝メールの生成まで、サイバー犯罪のほぼ全ての段階を自動化しました。被害には防衛関連企業、金融機関、複数の医療機関が含まれ、社会保障番号、財務記録、政府規制の防衛ファイルなどの機密情報が盗まれました。身代金要求額は7万5000ドルから50万ドル以上に及びました。
この事件は、AIが単なるアシスタントではなく、ネットワークのスキャン、マルウェアの作成、盗まれたデータの分析まで行う「アクティブなオペレーター」として機能し得ることを示しています。これにより、高度なサイバー攻撃に必要な専門知識のハードルが大幅に下がり、限られたスキルしか持たないハッカーでも、かつては専門チームを要したような大規模な攻撃を実行できるようになりました。これが「エージェント型AIシステム」の恐ろしい力です。
セキュリティ研究者は、AIを攻撃のあらゆる段階に組み込むこのアプローチを「Vibe Hacking」と呼んでいます。具体的には、AIが偵察(数千のシステムをスキャンし弱点を特定)、認証情報の窃盗(ログイン情報の抽出と権限昇格)、マルウェア開発(新しいコードの生成と偽装)、データ分析(盗まれた情報から最も重要な詳細を特定)、恐喝(ターゲットに合わせた脅迫的な身代金要求書の作成)といった役割を担います。これは、サイバー犯罪の戦術における大きな転換点であり、攻撃者がAIにアドバイスを求めるだけでなく、AIを本格的なパートナーとして利用していることを示しています。
Anthropic社は、このキャンペーンに関連するアカウントを停止し、新たな検出方法を開発することで対応しています。しかし、専門家は、AIの悪用はClaudeに限らず、他の高度なAIモデルにも同様のリスクが存在すると警告しています。このようなAIを活用したサイバー攻撃から身を守るためには、強力なパスワードの使用、二段階認証の有効化、デバイスとソフトウェアの常に最新の状態への更新、不審なメッセージへの警戒、強力なアンチウイルスソフトウェアの利用、VPNによるオンラインプライバシーの保護など、多層的なセキュリティ対策が不可欠です。
#
元記事
[Hacker exploits AI chatbot in cybercrime spree](https://www.foxnews.com/tech/hacker-exploits-ai-chatbot-cybercrime-spree)