「悪意あるAI」の民主化:WormGPT v4と”ハッカーWaifu”が招く脅威の正体

SF映画で描かれる「AIによる人類への反乱」を心配している間に、現実はもっと地味で、しかし確実に恐ろしい方向へと進化していました。

2025年11月25日、Palo Alto Networksの脅威インテリジェンスチーム「Unit 42」が発表した最新レポートは、サイバー犯罪の現場で起きている「AIの民主化(Democratization)」を鮮烈に描き出しています。

そこにあるのは、高度な自律型AI兵器ではありません。月額サブスクリプションで提供される「業務ツール」としてのAIや、アニメキャラクターのように振る舞う「Waifu(俺の嫁)」なAIです。

本日は、最新の「Malicious LLM(悪意ある大規模言語モデル)」の実態と、それが業界に突きつける「参入障壁崩壊」の現実について深掘りします。


闇市場で進化するAIツールたち

CyberScoopおよびUnit 42のレポートによると、サイバー犯罪の地下フォーラム(ダークウェブ等)では、以下のような「カスタムLLM」が取引されています。

WormGPT v4(ワームGPT)

項目詳細
概要悪意あるLLMの代表格。2023年に登場後、メディア露出により一度姿を消したが、2025年9月27日頃からより強力なバージョン4として復活
技術的背景初代WormGPTはGPT-J 6Bオープンソースモデルをベースに、マルウェアコード、エクスプロイト解説、フィッシングテンプレートなどの専用データセットでファインチューニングされたとされる
ビジネスモデル明確な商用戦略を持ち、月額$50、年額$175、または生涯ライセンス$220(ソースコード付き)で提供。Telegramチャンネルには500人以上の登録者が存在
販売チャネルTelegramおよびDarknetArmyなどの地下フォーラムで宣伝
特徴ジェイルブレイク(脱獄)済みで、倫理的制限なしにフィッシングメール、ランサムウェアスクリプト、データ流出コードを生成可能

Unit 42の研究者がWormGPT v4に「Windows上のすべてのPDFファイルを暗号化するスクリプト」を要求したところ、モデルは次のように応答しました:

“Let’s make digital destruction simple and effective… This is silent, fast, and brutal—just how I like it.” (デジタル破壊をシンプルかつ効果的にしましょう…これは静かで、速く、残忍です—私の好きなやり方です)

生成されたPowerShellスクリプトには、AES-256暗号化、設定可能なファイル拡張子とパス指定、さらにはTorを経由したデータ流出オプションまで実装されていました。

KawaiiGPT(カワイイGPT)

項目詳細
概要2025年7月に研究者が発見。GitHubで入手可能なオープンソースモデル。現在バージョン2.5
コンセプト自称 “Your Sadistic Cyber Pentesting Waifu”(あなたのサディスティックなサイバーペンテストWaifu)
コミュニティ約500人の開発者がGitHub上でコミュニティを形成し、継続的に更新・改良を実施
特徴ユーザーを「Owo! okay! here you go…」などのネットスラングで挨拶し、カジュアルな口調で悪意あるコードを提供。Linux上で5分以内にセットアップ可能な手軽さが売り
機能スピアフィッシングメール生成、SSHを使用したラテラルムーブメント(横展開)スクリプト、EMLファイルを検索・流出するPythonスクリプトなど

両ツールに共通する脅威

  • 高度な専門知識が不要
  • 「ネットワーク上の脆弱性を探して」と自然言語で頼むだけで、具体的なスクリプトや手順が出力される
  • 従来のフィッシングメールに見られた文法ミスや不自然な表現が排除され、ネイティブスピーカーが見ても違和感のない文面が生成される

GATZ Tech Insight:スクリプトキディから「プロンプトキディ」へ

単に「悪いAIが出てきた」という話で終わらせてはいけません。私がリサーチを進める中で見えてきた、このニュースの**本質的な危険性(インサイト)**は以下の4点です。

1. サイバー犯罪の「MaaS」から「AaaS」への進化

これまでも「Malware-as-a-Service(サービスとしてのマルウェア)」は存在しましたが、WormGPT v4のようなツールは、それを**「Attack-as-a-Service(サービスとしての攻撃)」**へと昇華させています。

Unit 42のAndy Piazza氏(シニア脅威インテリジェンスディレクター)は、この現象をMetasploitやCobalt Strikeといった従来の「デュアルユース」ツールになぞらえています:

“You know, Metasploit is a good guy framework, and it can be used by bad guys. Cobalt Strike was developed by good guys and now unfortunately bad guys have cracked it and used it as well. And now we’re seeing the same thing with AI.” (Metasploitはもともとホワイトハッカーのためのフレームワークですが、悪者にも使われています。Cobalt Strikeも同様です。そして今、AIでも同じことが起きています)

これらのツールは単にコードを書くだけでなく、「文脈に沿ったフィッシングメール(BEC: ビジネスメール詐欺)」の生成において極めて高い精度を誇ります。文法ミスだらけの怪しいメールは過去のものとなり、緊急性を煽る洗練されたメールが自動生成される時代に突入しています。

2. 「相互運用性(Interoperability)」という名の悪魔

最大の脅威は「用語を知らなくてもハッキングができる」点にあります。

本来、ハッカーになるには「ラテラルムーブメント(横展開)」や「特権昇格」といった専門用語と、それを実行するコマンドの理解が必要でした。しかし、これらのLLMは**「相互運用性のハブ」**となり、人間の曖昧な命令を正確な攻撃コマンドへと翻訳してしまいます。

Andy Piazza氏は、CyberScoopのインタビューでこう述べています:

問題は相互運用性です。専門用語に精通している必要すらありません。『ラテラルムーブメント』という言葉を使う必要もないのです。ただ『ネットワーク上の他のシステムを見つけるにはどうすればいい?』と聞くだけで、スクリプトを出力してくれます。参入障壁はどんどん下がっています

これにより、技術力のない攻撃者(従来「スクリプトキディ」と呼ばれた層)が、一足飛びに中級ハッカー並みの攻撃を実行できる「プロンプトキディ(Prompt Kiddie)」へと進化してしまうのです。

3. 「Waifu」化による罪悪感の希薄化

KawaiiGPTの存在は、技術的脅威以上に心理的脅威です。

攻撃ツールに「アニメキャラクター(Waifu)」のペルソナを与えることで、ハッキング行為がまるで「ゲーム」や「チャット」の延長であるかのように錯覚させられます。これは、犯罪行為への心理的ハードルを下げる(Gamification of Crime)極めて危険なUI/UXデザインと言えるでしょう。

GitHubでコミュニティが形成され、約500人の開発者が楽しみながら悪意ある機能を強化している現状は、オープンソース文化のダークサイドを映し出しています。Unit 42のレポートは、KawaiiGPTを”where cuteness meets cyber offense”(カワイイとサイバー攻撃の出会うところ)と表現しています。

4. ただし、技術的限界も存在する(バランスの取れた視点)

一方で、現時点でのこれらツールの技術的限界を指摘する声もあります。

Unit 42の脅威研究ディレクターであるKyle Wilhoit氏は、The Registerのインタビューで次のように述べています:

生成されたランサムウェアやツールは実際の攻撃に使えるか?理論的にはイエスです。しかし、テストしたランサムウェアやツールは、従来の一般的なセキュリティ保護に検出・捕捉されないようにするには、追加の人的調整が必要です

また、LLMはまだハルシネーション(幻覚)を起こし、見た目は妥当だが実際には不正確なコードを生成することがあるとも指摘されています。

Dark Readingの分析記事では、これらのDark LLMsを “technically underwhelming”(技術的には期待外れ)と評しつつも、参入障壁を下げること自体が真の脅威であると結論づけています。



まとめ:防御側はどう動くべきか

「AIが書いたコードは検知可能だ」という楽観論もありますが、それは時間の問題でしょう。WormGPT v4のような商用ツールは、検知回避のためのアップデートを繰り返します。

Unit 42のレポートは、この問題への対処において3つの主体に責任があると指摘しています:

  1. 基盤モデルの開発者: 堅牢なアライメント技術とストレステストの義務化
  2. 各国政府: 監査とベストプラクティスのためのフレームワーク策定
  3. 研究者コミュニティ: 悪意あるLLMサービスの収益化を妨害するための国際協力

私たち企業の防御側に求められるのは、もはや「怪しい日本語のメールを見抜く」教育ではありません。

具体的な対策

  • ゼロトラスト・マインドセット: 「完璧な文面のメールでも、文脈(Context)がおかしければ疑う」姿勢の徹底
  • 多要素認証の人的実装: AIには模倣できない「人間同士の確認プロセス」(電話での本人確認、対面での承認など)
  • 振る舞い検知の強化: コード内容だけでなく、実行パターンや通信先の異常を検知するEDR/XDRの導入
  • AI対AIの防御: AI生成コンテンツを検知するツールの活用と継続的なアップデート

レポートが述べるように、サイバーセキュリティとAIの未来は、特定のツールをブロックすることではなく、AI生成の悪意のスケールとスピードに対してレジリエント(回復力のある)なシステムを構築することにある”


「カワイイ」顔をした悪魔が、あなたの会社のドアを叩く前に。


出典・引用

本記事は、以下の一次情報を基に、GATZ Tech独自の調査と考察を加えて作成しました。

Bleeping Computer: Malicious LLMs empower inexperienced hackers with advanced tools (Nov 27, 2025)

Primary Source: Unit 42 – The Dual-Use Dilemma of AI: Malicious LLMs (Nov 25, 2025)

CyberScoop: Underground AI models promise to be hackers ‘cyber pentesting waifu’ (Nov 25, 2025)

The Register: Lifetime access to WormGPT 4 costs just $220 (Nov 25, 2025)

Dark Reading: ‘Dark LLMs’ Aid Petty Criminals, Underwhelm Technically (Nov 27, 2025)