Feb 28, 2026
2026年2月28日
この日のAIニュースレポート
コミュニティ
AI業界コミュニティ動向レポート — 2026年2月28日
2月28日のAIコミュニティを最も揺るがしたのは、トランプ大統領によるAnthropicの連邦政府全体での使用禁止という政治的衝撃だ。AI安全性をめぐる企業と政府の対立が、ビジネスリスクとして現実化した歴史的な一幕といえる。一方、開発者コミュニティではAIエージェントの暴走や長期対話の崩壊という実運用上の課題が多角的に議論され、「LLMに何をさせるか」から「LLMをどう制御するか」へと関心が移行しつつある。GoogleのAPIキーセキュリティ問題も浮上し、AI時代のセキュリティ設計の甘さが改めて問われた一日だった。
AnthropicとトランプのAI政策衝突
AIの軍事利用をめぐる倫理的立場の違いが、企業と政府の直接対立へと発展した。この事例はAI安全性の議論が机上論ではなく、政治・ビジネスの現実に直結していることを示す。
-
トランプ大統領は2月27日(現地時間)、Truth SocialへのポストでAnthropicを「極左の意識高い系企業(far-left woke company)」と名指しし、全連邦政府機関に対してAnthropicの技術の即時使用停止を指示した。発端はダリオ・アモデイCEOが国防総省(DoD)によるAIセーフガード撤廃要求を公に拒否したことにある。
- トランプ大統領、Anthropicを「極左の意識高い系企業」と非難し政府機関での製品使用を即時停止 — ITmedia
- トランプ氏、アンソロピックのAI「連邦政府全体で使用停止」 — 日本経済新聞
-
Anthropicはこれまでも政府との協力姿勢を示してきたが、「人を傷つけるシステムに技術を使わせない」という安全原則を優先した形だ。AI企業にとって政府契約の喪失リスクと倫理的姿勢の維持のどちらを優先するかという、業界全体に問いを投げかける前例となる。
AIエージェントの制御・設計:実運用の壁
AIエージェントを実務投入した開発者たちが「暴走」「崩壊」「人間のボトルネック化」という共通課題を報告している。実験段階から本番運用への移行において、設計原則の確立が急務となっている。
-
「判断はコード、提案はLLM」という役割分離が自律エージェントの安定運用に有効であることが実例から示された。ビジネスルールや条件判定をコードで明示的に実装し、LLMはその結果をもとに人間への提案文を生成する役割に限定することで、同一プロジェクトへの誤重複通知のような誤作動を根本的に防止できる。
-
OpenAIが公開した「Harness Engineering」記事では、Agent-First時代における人間の役割の変化が論じられた。エージェントにコードを書かせる場合、人間は「コードを書く人」から「仕様を設計し、エージェントの出力を評価する人」へとシフトする。この変化はエンジニアのスキルセットの根本的な再定義を迫るものだ。
-
LLMとの長期対話において「性能と仕様の溝」が徐々に顕在化するという構造的問題が、実際のAPIログをもとに分析された。短いチャットでは問題にならないが、対話が積み重なり判断基準が複層化した時点で、LLMが保持できない情報と保持できる情報の非対称性が致命的な崩壊を引き起こす。
- 崩壊するAI協働:構造解析編 — Zenn LLM
-
AIがプロジェクトの「開始」には積極的でも「完遂」を促す設計になっていないという指摘が共感を集めた。AIが次々と新しいタスクを生成・提案する構造が、人間の認知負荷を増大させ、タスク完遂率を下げる逆効果を招く可能性がある。
- AIはプロジェクトを始めさせすぎる — はてなブックマーク IT
-
Coding Agentワークフローにおいて「人間がボトルネックになる」問題を、Claude Code Skillで解消したアプローチが紹介された。検証コマンドをSkillとして実装することで、人間の確認ループをエージェント自身が代替し、Ralph型ループを実現する実装例として注目される。
- Agentワークフローで人間がボトルネックにならないためのSkill設計 — はてなブックマーク IT
マルチエージェント・フレームワークの現在地
複数のAIを協調させる「マルチエージェント」アーキテクチャの実装事例と検証が、コミュニティ内で活発に共有されている。
-
Agent Swarmはオープンソースのマルチエージェント・フレームワークで、Dockerで動作し複雑なタスクを自動分解して専門エージェントへ動的に割り当てるアーキテクチャを持つ。実行結果からプロンプトを自動最適化する「自己学習ループ」を実装しており、特定プラットフォームへの依存なくカスタマイズ可能なOSSとして注目を集めている。
-
Gemini・Claude・ChatGPT・Grokの4モデルを同一のテーマで「会議」させる実験が行われた。同じ質問に対してモデルによって意見が真っ二つに分かれるケースが確認され、AIの多様性(意見の非均一性)がマルチエージェント活用における価値源泉であると同時に、合意形成の難しさも浮き彫りになった。
- Gemini・Claude・ChatGPT・GrokでAI会議したら神々の遊びだった — Zenn LLM
LLM精度の実装レベル最適化
ハルシネーションやmax_tokensといった実装上のパラメータが、LLMの出力品質に与える影響についての定量的分析が共有された。
-
ハルシネーションの原因をモデル内部ではなく「入力(プロンプト)の構造的品質」に求める視点が提示された。制御工学の原則を援用し、目標値(プロンプト)の曖昧さが出力分布の乱れを引き起こすという因果モデルは、プロンプトエンジニアリングに体系的な理論的根拠を与えるものだ。
-
Claude SonnetとCoT(Chain of Thought)の組み合わせでは、max_tokens=512が出力を途中で切り詰め、精度が98%から56%へと急落することが実験で確認された。モデルや推論戦略ごとの「自然な出力長の分布」を事前にプロファイリングし、適切なmax_tokens閾値を設定することが精度維持の鍵となる。
- LLM推論のmax_tokensの最適化の実験 — Zenn LLM
GoogleのAIツールとAPIセキュリティの落とし穴
Googleが同日、動画AIツールのアップデートを発表した一方で、APIキー設計の重大な欠陥も露呈した。
-
Truffle Securityの調査により、GoogleがFirebaseやGoogle Mapsなど向けに「公開しても安全」と案内していたAPIキーが、Geminiの認証キーとしても機能することが判明した。この設計上の矛盾により、個人情報を含む会話ログが第三者からアクセス可能な状態になっているウェブサイトが大量に存在するとされる。
-
GoogleはAI動画編集ツール「Flow」を刷新し、Nano Banana統合によって動画素材の生成をより容易にした。AIによるコンテンツ制作ツールの高機能化が続く一方、上記のAPIセキュリティ問題は、AIサービスの急速な展開が既存のセキュリティ設計前提を覆すリスクを示している。
AI駆動開発の実践的方法論
LLMを活用した開発プロセスの設計について、チームレベルでの実践知が蓄積されつつある。
-
TDD(テスト駆動)・TDT(テーブル駆動)・AI駆動の三つを組み合わせた開発フローが紹介された。AI生成コードの「正しさを担保する」ために、厳密なルール制定と評価指標の設定が不可欠であり、プロダクト立ち上げフェーズから設計に組み込む重要性が強調された。
- 【Golang】AI駆動×テスト駆動×テーブル駆動 — Zenn LLM
-
AI開発会社を選定する際の技術チェックポイントとして、モデル精度だけでなくMLOps・監視・再学習・コスト管理・セキュリティまでを本番運用前提で評価する必要性が示された。PoCで止まるプロジェクトの主因は技術力不足ではなく、成功指標の曖昧さとデータ品質・責任境界の未整備にあるという指摘は、発注側の企業にとっても重要な視点だ。
- AI開発会社を選ぶ際に重要な技術ポイントとは? — Zenn LLM
LLMネイティブなツール・基盤の模索
拡張機能やSeleniumのような既存自動化手法に頼らず、LLMをシステムに深く組み込む試みが進んでいる。
-
未踏IT採択プロジェクト「Floorp OS」の開発から得た知見として、ブラウザ内部にLLM実行基盤を直接組み込むアーキテクチャが公開された。拡張機能やSeleniumを経由しないLLMネイティブなブラウザ制御は、AIエージェントがウェブと直接インタラクションする次世代基盤として注目に値する。
- 拡張機能やSeleniumに頼らない、LLMネイティブなブラウザ開発入門 — Zenn LLM
-
ローカル開発ツール「portless」(Vercel Labs)への言及から、Docker Compose環境ではTraefikがリバースプロキシとして同等の名前付きURL管理を実現できることが紹介された。モノレポで複数サービスを立ち上げる開発環境の利便性向上は、AIエージェントが複数サービスを並列操作する基盤整備にも直結する。
- portlessが便利なら、Docker ComposeにはTraefikがある — はてなブックマーク IT
AIと政治・社会:偽情報とデジタル民主主義
AIが政治的プロパガンダや偽情報工作のツールとして利用される実例が公表された一方、テクノロジーによる民主主義強化を論じる書籍も話題となった。
-
OpenAIは、中国と関連する複数のアカウントがChatGPTを使用して高市早苗首相を「軍国主義的で正当性に欠ける」と描写する偽情報を拡散しようとした工作をブロックしたと公表した。AIが外国からの政治的影響工作に実際に使用されていることを示す公式報告として重要性が高い。
-
政治経済学者による書籍『Plurality(プルラリティ)』がコミュニティで話題になった。テクノロジーが社会の絆を引き裂くのではなく、デジタルツールが民主主義を強化し人間の協力の可能性を解き放つという未来像を提示しており、AIの政治利用に関する議論の対極に位置する思想的貢献として注目される。
- Plurality — はてなブックマーク IT
クリエイティブAIの個人活用:動画制作の民主化
Remotionを活用したずんだもん解説動画の自動生成ツールが公開され、MarkdownからAI音声付き動画を自動生成するワークフローが個人開発者により実装された。ReactベースのRemotionとLLMによる台本生成を組み合わせることで、テキストコンテンツの動画化コストを大幅に削減できる実例として、クリエイター層の関心を集めている。
- Markdownからずんだもん動画を作成するツールを作った — はてなブックマーク IT
業界ウォッチ:伊藤穰一氏、デジタルガレージ退任
デジタルガレージ共同創業者でMITメディアラボ前所長の伊藤穰一氏が、2026年6月の定時株主総会終結をもって取締役を退任する予定であることが発表された。理由は非開示。エプスタイン問題との関連が以前から指摘されてきた経緯もあり、日本のテック・AI業界の重要人物の動向として注目される。
- 伊藤穰一氏、デジタルガレージの専務執行役員を退任 理由は明かさず — ITmedia
AI最新ニュース
AIニュース分析レポート:2026年2月28日
AnthropicとアメリカのPentagonの対立が歴史的な分岐点を迎え、AI業界全体に波紋を広げた一日となった。Anthropicが軍の要求を拒否したことで政府機関からの排除という前例のない事態が発生する一方、OpenAIは1,100億ドルという史上最大級の資金調達を完了し、AIインフラ競争が新たな局面に突入した。セキュリティ面では攻撃者によるAI活用が深刻化し、Claude Code自体にも重大な脆弱性が発見された。テクノロジー業界全体で「AIをどう統治するか」という問いが、もはや学術的議論を超えた政治・軍事レベルの衝突として顕在化している。
Anthropicと米国防総省:AIの軍事利用をめぐる歴史的対立
今回の騒動は、Pentagonが軍との契約条件を「いかなる合法的利用も許可する(any lawful use)」という文言に改定するよう迫ったことに端を発する。大量国内監視や完全自律型致死的兵器への利用を含意するこの条件をAnthropicが拒否したことで、史上初のAI企業vs連邦政府という正面衝突が起きた。
-
トランプ大統領はTruth SocialでAnthropicを「極左の意識高い系企業」と非難し、連邦機関での同社製品の即時使用停止を命令。これはAI安全策を維持しようとした企業が政府調達から排除されるという前例となった。
-
国防長官Pete Hegethはさらに踏み込み、Anthropicを「サプライチェーンリスク」に正式指定。朝鮮戦争時代の法律(Defense Production Act)を盾に強制的な協力を迫るという異例の措置が取られた。この指定はAnthropicと提携する多数の大手テクノロジー企業にも即座に影響を及ぼしかねない。
-
本質的な争点は「民間AI企業が軍の利用方法に制限を設ける権利を持つか」という問いである。完全自律型致死兵器(killer robots)と市民の大規模監視という二つのレッドラインをAnthropicは死守したが、他の主要AI企業(OpenAI、Google等)は同様の要求に明示的な反対表明を行っていない。
- AI vs. the Pentagon: killer robots, mass surveillance, and red lines — The Verge AI
- Anthropic vs. the Pentagon: What’s actually at stake? — TechCrunch AI
AI業界内部の分断:技術者たちの倫理的反乱
Anthropicの単独での抵抗に対し、競合他社の従業員が連帯する異例の事態が発生した。競争関係にある企業内部からの圧力が、業界の自主規制のあり方を問い直している。
-
Google DeepMindとOpenAIの従業員有志が公開書簡を発表し、Pentagonによる大規模監視や自律型兵器へのAI利用に対してAnthropicと同様のレッドラインを自社でも設けるよう経営陣に要求。「無監督のキラーロボットを持つ必要はない」という明確なメッセージが業界内に広がった。
-
一方でOpenAIのサム・アルトマンCEOは自律型兵器への利用を否定しつつも、軍との協議を加速させているという矛盾した立場を取っている。今回の資金調達にもみられるように、OpenAIは軍・政府との関係を維持しながらのバランス外交を続けている。
- トランプ大統領、Anthropicを「極左の意識高い系企業」と非難し政府機関での製品使用を即時停止 — ITmedia AI+
-
AIガバナンスの議論は「doom派 vs boom派」という単純な構図を超え、州レベルの立法や軍との契約条件という具体的な政策レイヤーに移行している。誰がAIのルールを設定するのかという問いは、もはや倫理学者の領域ではなく、契約書と法律の問題になっている。
OpenAIの史上最大資金調達:1,100億ドルが示すAI覇権の現実
Anthropicが逆風にさらされる中、OpenAIは業界の重力を再確認するような規模の資金調達を完了した。
-
OpenAIはAmazon(500億ドル)、Nvidia(300億ドル)、SoftBank(300億ドル)から合計1,100億ドルの投資を受け、評価額7,300億ドルで史上最大の民間資金調達ラウンドを完了。Amazonとはカスタムモデル開発を含む戦略的パートナーシップも締結した。
-
注目すべきは調達額がOpenAIの追加キャッシュバーン予測額(1,110億ドル)とほぼ一致している点。つまりこの調達は将来の成長投資ではなく、現在のコスト構造を維持するための資金という側面が強い。AIモデル開発・運用コストがいかに巨大かを示している。
-
ChatGPTの週間アクティブユーザーは9億人に達し、コンシューマー有料会員は5,000万人超。この規模はAIサービスがもはやニッチな技術ではなく、インターネット基盤インフラと同列の存在になりつつあることを意味する。
- ChatGPT reaches 900M weekly active users — TechCrunch AI
-
MuskはOpenAI訴訟の証言で「GrokはChatGPTのように自殺者を出していない」と自社の安全性を強調したが、その後xAI/GrokはX上で非合意の裸画像を大量生成するという事態を引き起こしており、発言の信頼性に疑問符がつく。
AIセキュリティの危機:攻撃者のAI活用と開発ツールの脆弱性
AIの普及は防御側だけでなく攻撃者にも等しく恩恵をもたらしており、セキュリティリスクが多層的に拡大している。
-
日本はランサムウェア検出率で世界3位(アクロニス脅威動向レポート)。サイバー攻撃者のAI活用により攻撃の効率と量が飛躍的に向上しており、フィッシングや標的型攻撃の精度が劇的に改善されている。AI時代のセキュリティは従来の防衛手法では対応が困難になりつつある。
- 攻撃者のAI利用はもはや”当たり前” 日本はランサムウェア検出率で世界3位に — ITmedia AI+
-
Check PointがClaude Codeに重大な脆弱性を発見。不正なリポジトリの設定ファイルを開くだけで遠隔コード実行(RCE)やAPIキー窃取が可能だった。修正は完了しているが、AI開発ツール自体がサプライチェーン攻撃の標的になるという新たなリスクカテゴリが浮上した。
- Claude Codeに重大な脆弱性 設定ファイル経由でRCEやAPIキー窃取の恐れ — ITmedia AI+
AIインフラ覇権争い:チップとクラウドの再編
AI計算資源をめぐる覇権争いが、従来の業界構造を崩す新たな同盟関係を生み出している。
- MetaがGoogleのTPU(Tensor Processing Unit)を大規模にレンタルする数十億ドル規模の契約を締結。自社AIモデルの学習にGoogleのチップを使うという判断は、NvidiaのAIチップ独占に対する直接的な挑戦であり、AI計算資源の多様化が本格化していることを示す。
AI製品・ツールの進化:統合・記憶・デザイン連携
個別のAI機能が成熟期を迎え、複数能力の統合と開発者体験の改善が競争軸になってきた。
-
PerplexityがリリースしたPerplexity Computerは「あらゆる現在のAI能力を単一システムに統合する」というコンセプトで、マルチモデルアーキテクチャの実用化を推進。ユーザーが複数モデルを意識せず最適な処理を受けられる方向性は、AI UXの次の主戦場を示している。
-
FigmaとOpenAIがCodexを通じた統合を発表。デザインツールとコード生成AIの直接連携は、デザイナーとエンジニアの協業フローを根本から変える可能性があり、ノーコード・ローコード開発の次なるステップを示している。
-
Claude Codeが自動メモリ機能を実装。デバッグパターン、プロジェクトの特性、好みの作業方法をセッションをまたいで自動追跡する。手動入力不要でコンテキストが蓄積されることで、AI開発アシスタントが「使うほど賢くなる」体験が実現しつつある。
AIコンテンツ市場の商業化:音楽生成が示すクリエイティブAIの成熟
- AI音楽生成サービスSunoが有料会員200万人、年間経常収益(ARR)3億ドルを達成。自然言語プロンプトだけで音楽を生成できるサービスが、ニッチなガジェットではなく持続可能なビジネスとして成立していることを示しており、クリエイティブAI市場全体の可能性を裏付けている。
AI研究・論文
AI研究・論文 最前線レポート(2026年2月28日)
2026年2月最終週のAI研究動向は、LLMの効率化・軽量化技術の急速な成熟を中心に、金融・科学・工学など実産業への深い浸透が特徴的だ。Sakana AIのハイパーネットワーク手法やAutoQRAに代表されるモデル適応技術は、LLMのカスタマイズコストを根本から変える可能性を持つ。一方で金融業界ではGoldman SachsやDeutsche Bankがエージェント型AIを実運用テストに移行し、AIの「実装品質」が業界全体の競争力を左右するフェーズに入りつつある。量子技術とAIの融合、非バックプロパゲーション学習法など基礎理論でも重要な前進が見られ、次世代アーキテクチャの土台が静かに形成されている。
LLMの効率化・適応技術:ファインチューニングの常識を覆す新手法
-
Sakana AIが提案したText-to-LoRA(T2L)とDoc-to-LoRAは、自然言語の指示や長文書からゼロショットでLoRAアダプタを生成するハイパーネットワーク手法。従来のIn-Context Learning(ICL)とSupervised Fine-Tuning(SFT)のトレードオフを、コスト償還(cost amortization)の概念で回避する
- Sakana AI、Doc-to-LoRAとText-to-LoRAを発表 — MarkTechPost
-
AutoQRAは混合精度量子化とLoRAランクを同時最適化するフレームワーク。従来の「量子化→ファインチューニング」の逐次パイプラインが見落としていたビット幅とLoRAランクの相互作用を考慮し、GPU메모리制約下での下流タスク適応を改善する
- AutoQRA:LLM効率的ファインチューニングのための混合精度量子化とLoRAの同時最適化 — arXiv AI+ML+CL
-
バックプロパゲーションに頼らない学習法として、LOCO(LOw-rank Cluster Orthogonal)重み修正手法が提案された。脳の神経表現と動的メカニズムにヒントを得た摂動ベースのアプローチで、ニューロモーフィックシステム向け効率的学習のスケーラビリティ課題を克服する
- 直交重み修正:勾配バックプロパゲーションなしの学習スケーラビリティと収束効率の改善 — arXiv AI+ML+CL
-
LLM推論の持続可能性問題に対し、コンテキスト認識型モデル切り替えの研究が登場。タスク複雑度に応じて大小モデルを動的に選択することで、全リクエストを同一の大規模モデルにルーティングする「画一型推論」のエネルギー浪費を解消する
- 持続可能なLLM推論:コンテキスト認識型モデル切り替えの活用 — arXiv AI+ML+CL
金融業界のエージェントAI:実装品質が競争力を左右する段階へ
-
Goldman SachsとDeutsche Bankが、静的アラートルールに依存しないエージェント型AIによるトレード監視システムをテスト中。キーワードスキャンではなく、リアルタイムでパターンを推論しコンプライアンス上の懸念を自動フラグする仕組みをBloombergが報道
-
金融ワークフローにおけるエージェントAIの最大課題は「信頼性と説明可能性」。情報取得は得意だが、多段階推論における一貫した説明可能な推論の提供に依然として苦戦しており、テクノロジーリーダーの優先課題となっている
- 金融ワークフロー向けエージェントAIのアップグレード — AI News
-
クラウドデータAIコンサルタントのDatatonicは、AI実装の失敗が生産性・競争力・効率性を侵食していると警告。多くの組織でAIと人間の協働設計が不十分であり、次フェーズの成功には「human-in-the-loop」を組み込んだガバナンス設計が不可欠と主張
- AIの不適切な実装が人員削減の背景にある可能性 — AI News
-
3つの記事を通じて見えるのは、エンタープライズAIが「概念実証」から「実装品質の最適化」フェーズへ移行したという共通認識。ツールの能力より、ガバナンスと人間との協調設計が差別化要因になりつつある
次世代AIチップへの道:ASML High-NA EUVの量産準備完了
-
オランダASMLが商業用極端紫外線リソグラフィ(EUV)の独占的地位をさらに強化。High-NA EUVツールが量産準備完了と確認され、次世代AIチップ製造に向けた産業の次なる飛躍の起点が正式に始まった
- ASMLのHigh-NA EUVツール、次世代AIチップへの道を開く — AI News
-
High-NA EUVはより微細なパターニングを可能にし、チップの集積密度をさらに高める。これはAIモデルの大規模化を支える物理的インフラの強化を意味し、長期的なモデル性能向上の土台となる
科学・工学への基盤モデル応用:分子から電力システムまで
-
Zatom-1は、3D分子と材料科学を統合する初の基盤モデル。従来のAIアプローチが分子か材料のどちらか一方、生成か予測のどちらかに特化していたのに対し、生成と予測の学習を統合することで表現の共有と転移を実現する
- Zatom-1:3D分子と材料のためのマルチモーダルフロー基盤モデル — arXiv AI+ML+CL
-
エネルギーシステム分析で課題となっていた空間解像度の不一致問題に、自己教師あり異種グラフニューラルネットワーク(Heterogeneous GNN)を適用。単一の地理空間属性に限定していた従来手法を超え、複数属性を考慮した空間重み付けを実現する
- グラフニューラルネットワークによるエネルギーシステム結合の空間割当改善 — arXiv AI+ML+CL
-
熱水力プロセスの実時間監視に向けた物理ベースデジタルツイン研究が登場。物理シミュレーションとデータ駆動型MLを組み合わせ、生産プロセスの安全性確保と予知保全を実現するアーキテクチャを提案
- 熱水力プロセスのデータ駆動型監視:物理ベースデジタルツインへ向けて — arXiv AI+ML+CL
深層学習の理論的フロンティア:アーキテクチャの新地平
-
因果計算的非対称性(CCA)原理が提案された。XからYを予測するNNと、YからXを予測するNNを同時学習し、収束が速い方向を因果方向として推定する。加法的ノイズモデル下で形式的な非対称性を証明している
- 収束時間からの因果方向識別:真の因果方向での高速学習 — arXiv AI+ML+CL
-
言語を複素数値の波動関数として扱う量子力学的シーケンスモデリングフレームワークが登場。学習済みハミルトニアンが複素振幅の位相を制御することで、矛盾する解釈を量子干渉によって打ち消す。標準的なRNNのゲーティングメカニズムとは根本的に異なるアプローチ
- 量子ダイナミクスによる深層シーケンスモデリング:波動関数としての言語 — arXiv AI+ML+CL
-
エントロピー制御フローマッチング(ECFM)は、決定論的フロー(ODE)と確率的拡散(SDE)の情報幾何学的軌跡を直接制御する手法。標準的なフローマッチング目標が制御できなかった低エントロピーボトルネック(意味的モードの一時的枯渇)を解消する
- エントロピー制御フローマッチング — arXiv AI+ML+CL
-
WaveSSMは、HiPPOフレームワークを発展させた多スケール状態空間モデル。多項式基底のグローバル時間サポートの帰納バイアスが非定常信号に不適合という問題を解決し、長距離依存性の非定常信号モデリングを改善する
- WaveSSM:非定常信号注意のためのマルチスケール状態空間モデル — arXiv AI+ML+CL
量子技術・セキュリティとAIの融合
-
CQSA(Byzantine-robust Clustered Quantum Secure Aggregation)は、連合学習における推論攻撃と毒化攻撃の両方に対処する量子支援型フレームワーク。情報理論的プライバシーを保証するQuantum Secure Aggregationを拡張し、Byzantine耐性を付与する
- CQSA:連合学習における Byzantine 耐性クラスタ型量子セキュア集約 — arXiv AI+ML+CL
-
適応型マルチチェーンブロックチェーン研究では、ブロックチェーン設定を多エージェントリソース配分問題として定式化。アプリケーションとオペレータが需要・容量・価格上限を宣言し、オプティマイザがエポックごとに一時的チェーンにグループ化してクリアリング価格を設定するマルチ目的最適化手法を提案
- 適応型マルチチェーンブロックチェーン:多目的最適化アプローチ — arXiv AI+ML+CL
マルチモーダルAIの実応用:広告分析から最適化制御まで
-
動画広告の冒頭3秒間(フッキング期間)を分析するマルチモーダルLLMフレームワークが提案された。視覚・音声・テキストが混在する動画コンテンツのマルチモーダル性という課題に取り組み、視聴者エンゲージメントを左右する要素の自動分析を実現する
- フックのデコーディング:動画広告のフッキング期間分析のためのマルチモーダルLLMフレームワーク — arXiv AI+ML+CL
-
LLMを組み合わせ最適化の制御器として活用するCode World Models(CWM)が、確率的組み合わせ最適化へ拡張された。LLMが最適化器の動作をシミュレートするPythonプログラムを合成し、そのシミュレータ上で欲張り計画を行い突然変異強度を動的制御する
- 進化的アルゴリズムのパラメータ制御のためのコードワールドモデル — arXiv AI+ML+CL