メインコンテンツへスキップ
NORTH HILL AI・LLMO Weekly Report

Vol.8|今週のAI・LLMOトレンド

Vol.8 2026年4月28日

今週はAIセキュリティの転換点となる一週間でした。Anthropicは4月7日、自社史上最強のフロンティアモデルClaude Mythos Previewを発表——17年間放置されていたFreeBSDの脆弱性を自律的に発見・悪用し、初回試行で83%のexploit成功率を示すなど、「危険すぎて一般公開できない」水準のサイバー能力を持つため、Project Glasswing(AWS・Apple・Cisco・CrowdStrike・Google・JPMorgan・Microsoft・NVIDIA・Palo Alto Networks+40社以上)の限定公開に留めました。しかし4月20日には未認証グループによるアクセス事件が発覚、22日にBloombergやEuronewsが大きく報じる事態に。同日、自民党の国家サイバーセキュリティ戦略本部合同会議でもMythosが俎上に上がり、政府への対策要請が動き出しています。さらに独立研究のVidoc Security Labは、30億パラメータのオープンソースモデルでもMythosの旗艦的実証を再現できたと発表——「限定公開」では止められない現実が見えてきました。一方で、AIに「雰囲気で」コードを書かせるバイブコーディングの普及により、800万ユーザーを擁するLovableで48日間放置されたBOLA脆弱性が露見、AI生成コードの91.5%に何らかの欠陥が含まれるという調査結果も。攻撃側のAI能力が一段上がったその同じ週に、防御側のコードはAIで急増し、しかも非エンジニアが多く触っている——この非対称が、向こう数ヶ月の経営課題そのものです。

Topic 01

Anthropic「Mythos」公開——「危険すぎて一般公開できない」AIが世界のサイバー防御を塗り替える

なぜ重要か

Anthropicは4月7日、Claude Mythos Previewと呼ぶフロンティアモデルを限定公開しました。同社が「我々が作った中で最も強力なAI」と自ら表現する通り、未知の脆弱性(ゼロデイ)を自律的に発見し、悪用コード(exploit)まで作る能力が前世代から段違いに高まったことが社外評価でも確認されています。Anthropicは一般公開せず、AWS・Apple・Cisco・CrowdStrike・Google・JPMorgan・Linux Foundation・Microsoft・NVIDIA・Palo Alto Networks+40社以上が参加するProject Glasswingの枠内でのみ提供——「攻撃者の手に渡る前に、防御側に先行して使ってもらう」戦略です。日本でも4月20日に自民党の国家サイバーセキュリティ戦略本部合同会議で議題に上がり、政府への対策要請が動き始めました。経営層にとっては、自社のシステム・委託先・取引先のうちどこが標的になり得るのか、「標的の地図」を更新するタイミングです。

何が起きたか

Mythos Previewは2026年4月7日、Anthropic公式発表とTechCrunch・Axios・Fortuneなどの報道で姿を現しました。注目すべき技術的事実は3点あります。第一に、17年間放置されていたFreeBSDのリモートコード実行脆弱性(CVE-2026-4747)を自律的に発見し、認証なしでサーバを完全掌握する攻撃まで実証——主要OSやWebブラウザでも複数のゼロデイを検出済みと公表されています。第二に、初回試行で83%のexploit成功率、複数の脆弱性を組み合わせた連鎖攻撃も可能。第三に、英国AI Security Institute(AISI)の独立評価では「強固に防御された組織への自律攻撃は信頼性を持って実行できない」と確認されており、現時点では「無敵の攻撃者」ではなく「熟練ハッカーに匹敵する能力」と理解するのが正確です。一方、4月20日前後には小規模な未認証グループが推測でMythosへアクセスする事件が発生、4月22日にBloombergとEuronewsが報道。元米国国家サイバー副長官 Kemba Walden 氏はFortune誌で「Mythosはほぼ何でもハッキングでき、我々は備えていない」と警鐘を鳴らしました。Anthropic自身、同等能力のモデルが他社から登場するまで「6ヶ月から18ヶ月」と見ており、限定公開の猶予は長くありません。

ビジネスへの影響

  • 自社の攻撃面(アタックサーフェス)の棚卸しを今四半期中に完了させる必要があります。ファイアウォール・VPN・SaaSの認証・社外公開API・委託先のシステム——どこに何が見えていて、それぞれのパッチ適用までの最短時間が何時間かを把握しているかが、今後の生死を分けます。情報システム部門に「攻撃面マップと平均パッチ時間(MTTP)」をレポート化させる起案が、来週からのアクションです。
  • パッチサイクルは「四半期」から「数日〜数時間」に短縮する前提で、調達・運用・契約を見直してください。特に金融・医療・製造の重要インフラを抱える企業は、ベンダーの脆弱性開示窓口(VDP)と緊急パッチSLAを契約に明記する交渉を始めるべきタイミングです。Project Glasswingの参加企業(AWS・Microsoft・Cisco・Palo Alto Networks等)からは今後、Mythos由来の発見が反映されたパッチが順次降りてくるため、それを取り込めるサプライチェーンになっているかが問われます。
  • 「侵害前提(assume breach)」の検知・初動運用に振り切ること。100%防げる時代は終わりました。EDR/XDRの導入、ログ集約、24/7のSOC監視(自社・MSSP問わず)、インシデント対応訓練を、規模に関係なく経営アジェンダに格上げする時期です。Mythos級の自律攻撃が来るとしても、検知・封じ込め・復旧のスピードが被害規模を決めます。

Topic 02

オープンソースモデルでもMythos級は再現可能——「限定公開で時間を稼ぐ」戦略の終わり

なぜ重要か

Anthropicが「危険すぎる」として限定公開したMythosですが、独立研究機関による再現実験で、「ほぼ同じことが、誰でも使える公開モデルで既にできる」事実が露呈しました。Vidoc Security Labは、8つの公開モデルすべてがMythosの旗艦的成果(FreeBSD脆弱性発見)を再現したと発表。中には30億パラメータ・100万トークンあたり0.11ドルという小型・低コストモデルも含まれていました。これが意味するのは「Mythosをどう囲い込んでも、同等の攻撃力は既に世界中のサーバで動かせる」という冷たい現実です。経営層にとって重要なのは、「フロンティアモデルが公開されるかどうか」ではなく、「攻撃力はもう拡散している前提で、自社の防御をどう設計し直すか」へ思考を切り替えることです。

何が起きたか

Vidoc Security Labは2026年4月、ブログ「We Reproduced Anthropic’s Mythos Findings With Public Models」で詳細を公開しました。AnthropicがMythos Previewの能力として挙げた5件の代表事例(FreeBSD・Botan・OpenBSD・FFmpeg・wolfSSL)のうち、FreeBSD・Botan・OpenBSDは少なくとも1つの公開モデルで完全再現、FFmpegとwolfSSLはGPT-5.4とClaude Opus 4.6でも部分再現に留まりましたが、フラッグシップのFreeBSD実証は8/8のモデルが検出に成功しています。Decryptは「Anthropicの警告は本物だが、防御側はMythosの公開を待つ必要はなく、既に手元のツールで備え始められる」と総括。同時に4月20日、自民党の国家サイバーセキュリティ戦略本部・デジタル社会推進本部・経済安全保障対策本部の合同会議では、AnthropicとOpenAIの代表者を招き、Mythosなど高性能AIモデルが攻撃者の手に渡った場合の金融インフラ・重要インフラへの被害シナリオが議論されました(日経クロステック、ビジネスインサイダー等)。緊急提言として政府にサイバー防衛体制の強化を求める方針が固まっており、近い将来の規制・補助金両面の動きが見込まれます。

ビジネスへの影響

  • 「Mythosを止めれば安全」というメンタルモデルを捨て、自社のセキュリティ予算配分を見直すべき局面です。今期の追加投資は「攻撃検知(EDR/XDR/SIEM)」「自動パッチ管理」「サードパーティリスク評価」「インシデント対応リテイナー契約」の4本に集中させると、限られた予算で最大の効果が出ます。AIによる攻撃力上昇に対抗できるのは、AIによる検知・自動化を組み込んだ防御側の運用です。
  • 取引先・委託先のセキュリティ体制を四半期で点検する運用を始めてください。多くの企業にとって最大の侵入経路はサプライチェーン経由です。「主要委託先10社の脆弱性開示ポリシー、SOC2/ISMS取得状況、最近12ヶ月のインシデント開示」を一覧化するだけでも、リスクの全体像が掴めます。これは情シス部門ではなく、購買・法務と連携した経営マターとして運用するのが王道です。
  • 規制の動向も先回りで追ってください。自民党合同会議の緊急提言は、今後のサイバーセキュリティ基本法改正やAI関連ガイドライン強化につながる可能性が高い段階です。経産省の「AI事業者ガイドライン」やNISCの動きを四半期で確認し、自社の社内規程・従業員教育のアップデートに反映できる体制を作っておくと、規制対応コストを抑えられます。

Topic 03

Lovable事件と非エンジニアのバイブコーディング——便利になるほど広がる「セキュリティ債務」と今すぐできる対策

なぜ重要か

評価額66億ドル・800万ユーザーを擁するバイブコーディングプラットフォームLovableで4月20日、深刻な脆弱性(BOLA: Broken Object Level Authorization)が公開されました。無料アカウントを取得した者が、わずか5回のAPI呼び出しで他ユーザーのプロフィール・公開プロジェクト・ソースコード・データベース認証情報にアクセスできたという事態で、しかもバグ報奨プログラムで一度通報があったにもかかわらず48日間も放置されていたことが判明。Uber・Zendesk・Deutsche Telekomなど大企業も同社サービスを使っており、影響範囲は広範囲です。Q1 2026の調査では、バイブコーディング製アプリの91.5%にAIハルシネーション由来の脆弱性、3月だけでAI生成コードに起因する新規CVEが35件——「便利だから」と非エンジニアにコーディングを開放した結果、セキュリティ債務が爆発的に蓄積している状況が、もはや無視できなくなりました。

何が起きたか

Lovableの脆弱性は2026年2月に最初に発見され、3月にバグ報奨プログラムで開示・通報されたものの「意図された動作」とされ、結果的に2月のバックエンド権限変更以降の48日間、2025年末以前に作成された全プロジェクトが無料アカウント保有者から読み取り可能な状態でした。露呈したのはソースコード、Supabase認証情報、AIチャット履歴、顧客データ。同社は当初「意図的な挙動」「ドキュメント不備」と主張、後にHackerOne側のミスと釈明を変えて炎上(The Register、Cybernews、Computing等)。同じ週にはVercelやBitwardenでもAIコード由来のセキュリティ事故が報じられ、State of Surveillanceは「3つのAIセキュリティ災害が1週間に集中した、バイブコーディングの清算が始まった」と総括しました。背景データも厳しく、Cisco State of AI Security 2026は「83%の組織がAIエージェントを導入予定だが、守れていると感じるのは29%のみ」、Gravitee State of AI Agent Security 2026は「88%の組織が過去1年でAIエージェント関連インシデントを確認または疑い」と報告。AI生成コードの40〜62%が脆弱性を含み、年末までに全コードの60%がAI生成になる予測の中で、非エンジニアがリードする開発の急増が新たな攻撃面を作り出しています。

ビジネスへの影響

  • 非エンジニア向け「バイブコーディング・セキュリティ5箇条」を社内で配布してください——①APIキー・パスワードを直接コードに書かない(環境変数・シークレット管理サービスを使う)、②AI出力は「未検証ドラフト」として扱い、必ず人がレビュー、③「最悪何が起きる?」の質問を本番デプロイ前に必ず通す(簡易脅威モデリング)、④会社が承認したAIコーディングツール以外で本番コードを書かない、⑤依存関係(npmやpip等のライブラリ)はAIが提案したものでも実在チェック+脆弱性スキャン。これだけで事故率は大きく下がります。
  • 「承認済みAIコーディングツール」のリストを情シスが整備することが、規模を問わず必要です。野放しの状態で各部門が好きなツールでアプリを作ると、機密データが外部AIに漏れたり、認証なしの公開DBが量産されたりします。承認リスト・利用ルール・本番デプロイ前のレビュー手順をセットで決め、教育プログラムに乗せる——情シス+人事+法務の三者連携で進めるのが王道です。
  • 本番運用に乗せる前の「最低限のセキュリティ通過儀礼」を制度化してください——静的解析(Snyk、GitGuardian、Aikido等)、依存関係スキャン、シークレット検出、簡単なペネトレーションテスト。これらは「あったらいい」ではなく、AIで作ったコードを世に出す前提条件です。Lovable事件のように、「AIが作ったから自分は中身を理解していない」アプリを公開し続けると、自社が次の見出しになる可能性が現実的に高まっています。

LLMO Trend

セキュリティ事故は「AI引用排除」を招く——LLMO時代の信頼性とは

LLMOとは

LLMO(LLM最適化)とは、GoogleでのSEOのAI版です。ユーザーがChatGPT・Claude・Gemini・Perplexityなどに質問したとき、AIが「回答の根拠として引用・推薦するコンテンツ」に自社情報が選ばれやすくする取り組みを指します。今週は「セキュリティとブランド露出は同じコイン」が鮮明になった週でした——AIに引用される企業になるには、情報の信頼性とアーキテクチャの透明性が両輪で求められる時代に入っています。

今週のLLMO的変化

①セキュリティ事故 = ブランド毀損 + AI引用排除リスク:Lovableが「48日間放置」「対応の二転三転」で炎上し、検索結果やAI回答に「セキュリティ問題」の文脈で言及されるようになりました。一度AIに「このサービスは脆弱性事故を起こした」と覚えられると、回答での推薦からも外されやすくなります。広報・マーケティング部門は、セキュリティ事故対応を「コーポレート広報の最重要シナリオ」として平時から準備する必要があります。

②脆弱性開示ポリシー(VDP)の有無が信頼の指標に:Project Glasswing参加企業はいずれも明確なVDPを持っています。security.txt、HackerOne・Bugcrowd等のバグ報奨プログラム、CVEへの貢献——これらは「攻撃面が大きい組織」ほどシグナルとして機能します。AIが企業の信頼性を判断する材料に、セキュリティの透明性が組み込まれ始めたのが今週の質的変化です。

③AIエージェントが触る「機械可読な情報」を守る発想:MCP(Model Context Protocol)経由でAIエージェントが社内・社外の情報源にアクセスする時代、自社が公開しているAPI・FAQ・構造化データは「営業の入り口」であると同時に「攻撃の入り口」でもあります。LLMO(露出)とセキュリティ(守り)を同じテーブルで設計する——それが、エージェント時代のWeb戦略の基本になります。

今日からできる具体的なアクション3点

  • 脆弱性開示ポリシー(VDP)と security.txt を公開する:自社サイトの `/.well-known/security.txt` に、セキュリティ報告窓口(メール・PGP鍵・対応ポリシー)を記載します。これだけで「責任ある脆弱性報告を受け付けている企業」というシグナルが立ち、AI・検索・取引先評価で信頼性が一段上がります。テンプレートは securitytxt.org に揃っており、半日で公開可能です。
  • 「AIに学ばせたい一次情報」と「外部公開してはいけない情報」を仕分ける:独自データ・顧客事例・取材記事は積極公開(日付・著者・出典明記)、設定情報・APIキー・社内仕様は徹底ガード。両方を同じ棚卸しシートで管理することで、LLMO(露出)とセキュリティ(守り)の意思決定を一本化できます。バイブコーディングの普及で、この境界を意識せずに公開されるケースが急増しているため、四半期に一度は全社で点検を。
  • AIエージェント向けの正規エンドポイント(FAQ・価格・在庫)を整備する:商品ページのFAQ schema、価格表のJSON-LD、APIの公開ドキュメントを整備し、エージェントが正しく自社情報に到達できる動線を作ります。同時に、レート制限・認証・監査ログを必ず設計に含めること——「AIに見つけてもらう」と「守る」を一体で考えるのが2026年型のWeb戦略です。

来週の注目ポイント

  • ① Project Glasswing参加企業からの最初の脆弱性開示:AWS・Microsoft・Google・Cisco・Palo Alto Networks等がMythos由来の発見をどの順序・どの粒度で公表するか。来月以降に大規模パッチが集中する可能性が高く、自社の運用部門のキャパを今のうちに確保しておくべきです。
  • ② 自民党の緊急提言と政府のサイバー対策アップデート:5月の連休明けに具体的な対策パッケージや補助金の動きが見える可能性。経済安全保障推進法の追加指定や、金融庁・経産省の追加ガイドラインに注目してください。
  • ③ バイブコーディング規制の議論本格化:Lovable事件を契機に、ノーコード/バイブコーディング・プラットフォームへの最低限のセキュリティ要件(暗黙のシークレット検出、デフォルト権限の最小化等)が業界標準として議論される可能性。EUのAI法第二フェーズ・米国NIST AI RMFのアップデートも要チェックです。

用語解説

Mythos(ミュトス)
Anthropicが2026年4月7日に発表したフロンティアAIモデル。Claudeシリーズの最上位に位置し、サイバーセキュリティ能力が突出している。17年間放置されていたFreeBSDの脆弱性を自律的に発見し、初回試行で83%のexploit成功率を持つ。「危険すぎて一般公開できない」として、限定公開プログラムProject Glasswing経由でのみ提供される。
Project Glasswing(プロジェクト・グラスウィング)
AnthropicがMythos Previewを限定提供するために2026年4月7日に発足させたサイバーセキュリティ防御連合。AWS・Apple・Broadcom・Cisco・CrowdStrike・Google・JPMorgan・Linux Foundation・Microsoft・NVIDIA・Palo Alto Networksが発足パートナーで、追加で40以上の重要インフラ企業・OSS開発者が参加。「攻撃者の手に渡る前に、防御側に先行して使わせる」戦略。
バイブコーディング(Vibe Coding)
厳密なプログラミング言語の構文を覚えず、AIとの対話(vibe=雰囲気)でアプリケーションを開発する手法。OpenAI共同創業者のAndrej Karpathyが2025年に命名し、Collins辞書の「2025年の言葉」に選定された。Lovable・Cursor・v0などが代表的なツール。Q1 2026時点でAI生成コードの40〜62%に脆弱性、バイブコーディング製アプリの91.5%にAIハルシネーション由来の欠陥が含まれるとの調査結果がある。
BOLA(Broken Object Level Authorization)
「オブジェクトレベル認可の欠陥」と訳される、Web API設計の代表的な脆弱性。あるユーザーが、本来アクセス権を持たない他ユーザーのデータ(プロフィール、ファイル、設定等)を、APIのIDを書き換えるだけで取得できてしまう状態を指す。OWASP API Security Top 10で長年第1位にランクされる頻出脆弱性で、Lovable事件(2026年4月)でもこのBOLAが原因。
MCP(Model Context Protocol)
Anthropicが2024年に提唱した、AIモデルと外部ツール・データソースを接続するためのオープン標準プロトコル。AIエージェントが社内システムや外部APIにアクセスする「共通配線」として急速に普及した一方、MCPサーバが返すドキュメント経由でプロンプトインジェクション攻撃が成立するなど、新たな攻撃面としても注目されている。エンタープライズではMCP出力も「未検証入力」として扱う運用が推奨される。
この記事の著者 今津 学 株式会社ノース・ヒル AIディレクター
著者について →

このレポートを毎週受け取りませんか?