Mar 28, 2026
2026年3月28日
この日のAIニュースレポート
コミュニティ
コミュニティが動かすAI: オープンソース・効率化・ベンチマーク信頼性の三つ巴
2026年3月28日のAIコミュニティは、モデル効率化技術の急速な成熟、オープンソース解放を求めるムーブメントの台頭、そしてベンチマーク評価の信頼性危機という三つの大きなテーマで揺れている。GoogleのTurboQuantがLLMメモリ使用量を最大6倍削減できると示す一方、コミュニティはその実装を独自に進め始めており、ローカルLLM民主化への機運が高まっている。同時に、LoCoMoをはじめとする主要ベンチマークの欠陥が白日の下にさらされ、モデル評価の根拠そのものが揺らいでいる。AIエージェントのメモリ・サンドボックス設計という実装課題も活発に議論されており、研究から実用への橋渡しをコミュニティが担う構図が鮮明だ。
オープンソース解放運動とモデルの民主化
-
#OpenSource4oムーブメントがTwitter/X上でトレンド入りし、OpenAIにGPT-4oのオープンソース化を求める声が拡大している。GPT-4oのOSSモデル(120B・20B)が公開されてから8ヶ月が経過したにもかかわらず、主力モデルの解放は進んでいないことへの不満が背景にある
- #OpenSource4o Movement Trending on Twitter/X — Reddit r/LocalLLaMA
-
中国のZhipu AIがリリースしたGLM-5.1(744Bパラメータ、40B活性化)は、SWE-bench-Verifiedで77.8点(オープンソースSOTA)、Terminal Bench 2.0で56.2点を記録し、Claude Opus 4.5に匹敵するコーディング性能をオープンモデルとして実現した。200Kコンテキスト・128K最大出力、ネイティブMCPサポートも備える
- GLM-5.1 is live – coding ability on par with Claude Opus 4.5 — Reddit r/LocalLLaMA
- Glm 5.1 is out — Reddit r/LocalLLaMA
-
スマートフォン上で動く2Bモデルの実用性についての議論が盛んで、Qwen2.5/3.5やGemmaを試したユーザーが「回答の80%がハルシネーション」と報告。小型モデルの現実的な限界と用途の見極めがコミュニティの関心事となっている
- Do 2B models have practical use cases, or are they just toys for now? — Reddit r/LocalLLaMA
メモリ効率とローカル推論の技術革新
-
GoogleのTurboQuant圧縮アルゴリズムがLLMメモリ使用量を最大6倍削減できるとArs Technicaが報じ、品質劣化なしにフロンティアモデルを家庭用ハードウェアで動かす可能性をコミュニティが熱望している
- Google’s TurboQuant AI-compression algorithm can reduce LLM memory usage by 6x — Reddit r/LocalLLaMA
-
コミュニティ開発者がllama.cpp向けTurboQuant実装を独自に進め、KVキャッシュの逆量子化作業を90%スキップすることで、32Kコンテキスト(M5 Max)でのデコード速度を+22.8%向上させることに成功。14種類のSIMD・LUT・カーネル融合手法を試した末、Flash Attentionの計算特性を利用したアプローチが唯一の突破口となった
- Skipping 90% of KV dequant work → +22.8% decode at 32K (llama.cpp, TurboQuant) — Reddit r/LocalLLaMA
-
TinyServeはVRAM不足のユーザー向けにMoEモデルのエキスパートをRAMにオフロードし、さらにRAMが足りない場合はSSDプリフェッチで対応する2段階キャッシュ機構を実装。MXFP4・FP8・BF16モデルに対応し、vLLMやllama.cppへのアップストリーム提案を目指すPoC
- TinyServe - run large MoE models on consumer hardware — Reddit r/LocalLLaMA
-
Unsloth Studioがベータ公開1週間で50以上の新機能・改善をリリース。事前コンパイル済みllama.cpp/mamba_ssmバイナリによりインストール時間を約1分・サイズを50%削減、推論速度を20〜30%向上させた。LM Studio・Hugging Faceからの既存モデル自動検出も追加
- New Unsloth Studio Release! — Reddit r/LocalLLaMA
-
FlashAttentionを基礎から学び直すコンテンツが注目を集めており、新モデルリリースやエージェント議論の喧騒の中で「基礎技術を理解する」重要性を説く声がコミュニティ内で共鳴している
- FlashAttention from first principles — Reddit r/LocalLLaMA
ベンチマーク信頼性の危機
-
LoCoMo(ACL 2024、長期記憶ベンチマーク)の独立監査により、回答キーの6.4%が誤りであり、LLMジャッジが意図的な誤回答を最大63%受け入れることが判明。2026年3月時点でも新スコアが登録され続けており、信頼できないベンチマーク上での競争が続いている実態が露呈した
-
MemAwareベンチマークが、既存メモリベンチマークが測定していない「暗黙的コンテキストの自動サーフェシング」を評価。RAGベースのエージェントメモリはユーザーが明示的に尋ねた場合には機能するが、文脈的に関連する過去情報を自動想起する能力は著しく低く、RAGのスコアが2.8%、メモリなしで0.8%という低水準にとどまった
- MemAware benchmark shows that RAG-based agent memory fails on implicit context — Reddit r/LocalLLaMA
-
ACL ARRへの誤った二重投稿によるデスクリジェクト事例がコミュニティで共有され、査読プロセスの厳格さと研究者への影響を再認識させる議論となっている
- [R] ACL ARR review desk rejected — Reddit r/MachineLearning
AIエージェントのインフラ設計:サンドボックスとハーネス
-
コーディングエージェントの普及に伴い、プロジェクト・エージェント単位で生成・破棄できるリモートVM「サンドボックス」が注目されている。exe.dev・Sprites・Docker Sandboxなどのサービスが台頭し、エージェントを安全に隔離して実行するインフラ整備がトレンドとなっている
- コーディングエージェント向けのリモートサンドボックス — はてなブックマーク IT
-
OpenAI・Anthropic・Stripeなど先進企業のAIエージェント開発環境設計(ハーネスエンジニアリング)を横断分析した記事が注目を集めている。エンジニアの役割がコードを書く人からAIが動ける環境を設計する人へ移行しつつあるという共通パターンが示されている
- ハーネスエンジニアリング ― AIエージェントが自律的に動ける開発環境の設計 — はてなブックマーク IT
-
Gemini Proがシンプルな質問に対してチェーンオブソートと思われる内部処理をそのまま出力し、無限ループに陥って「(End)」を数千行繰り返すという障害が報告された。モデルが自身の出力を終了できなくなるという実装上のリスクが、コミュニティで広く共有されている
- Gemini Pro leaks its raw chain of thought, gets stuck in an infinite loop — Reddit r/LocalLLaMA
データ活用とMLの実践的課題
-
TikkocampusがTikTokクリエイターのタイムラインをタイムスタンプ付き・検索可能なセグメントに変換し、RAGプロジェクトやMLデータセット作成に活用できるツールとしてMLコミュニティに紹介された
- [P] Create datasets from TikTok videos — Reddit r/MachineLearning
-
教室での生徒の注意レベル検出(engaged/confused/bored)において、ResNet(CNN)アプローチと68点フェイシャルランドマークアプローチの選択がリソース制約環境で議論されており、エッジデプロイにおける計算効率vs精度のトレードオフが実務的課題として浮上している
- [D] Real-time Student Attention Detection: ResNet vs Facial Landmarks — Reddit r/MachineLearning
-
POSシステム未連携の小売多店舗向け需要予測システムの設計事例が共有された。オペレーターが収益・客数・廃棄・カテゴリミックスなど1日4〜5シグナルを手動入力し、統計ベースから始めてMLへ段階移行するアーキテクチャへのフィードバックが求められている
- [D] Building a demand forecasting system for multi-location retail with no POS integration — Reddit r/MachineLearning
プライバシーとセキュリティ:信頼の境界線
-
Appleが「メールを非公開」機能で隠蔽しているはずのユーザーの実名をFBIに提供していたことが明らかになった。プライバシー保護を謳う機能が法執行機関の要請に対して機能しない事実は、テクノロジー企業のプライバシー訴求に対する根本的な疑問を提起している
- AppleがFBIにユーザーの実名を提供していたことが明らかに — はてなブックマーク IT
-
ハードウェアセキュリティキー等を利用した「複製不可能なSSH鍵運用」の解説がコミュニティで注目されており、AIエージェントのインフラアクセス管理やゼロトラスト化に対する関心の高まりと連動している
- 複製不可能なSSH鍵運用のススメ — はてなブックマーク IT
AI最新ニュース
AI最新動向レポート(2026年3月27日)
2026年3月末、AI業界は資金調達・規制・技術革新が同時並行で動く激動の局面を迎えた。OpenAIのIPO観測が現実味を帯びる一方、Anthropicは政府との法廷闘争に勝訴し、新世代モデル「Claude Mythos」のリーク情報が業界に衝撃を与えた。AIエージェントの標準化とプラットフォーム間の乗り換え競争が本格化し、コンテンツの信頼性・著作権をめぐる議論も各所で噴出している。AI音楽・医療・ハードウェアインフラまで、技術の波及範囲はとどまるところを知らない。
OpenAI IPOとSoftBankの巨額資金戦略
-
SoftBankがJPMorganとGoldman Sachsから400億ドル(約6兆円)の無担保ローンを12ヶ月で調達した。この構造は満期前に出口(IPO)が必要であることを強く示唆しており、2026年中のOpenAI上場を見込んだ橋渡しファイナンスと分析される。
- Why SoftBank’s new $40B loan points to a 2026 OpenAI IPO — TechCrunch AI
-
OpenAIは動画生成モデル「Sora」を事実上終了させたことも報じられており、リソース集中と選択が進んでいる。VCが次世代AIに数十億ドルを投じる一方で、OpenAI自身は製品ポートフォリオを整理しつつある。
- OpenAI shuts down Sora while Meta gets shut out in court — TechCrunch AI
- VCs are betting billions on AI’s next wave, so why is OpenAI killing Sora? — TechCrunch AI
-
OpenAIのCodexには、Slack・Notion・Figma・Gmail・Google Driveと連携するプラグインマーケットプレイスが追加された。Soraの縮小とエンタープライズ向け開発ツールの強化という戦略転換が明確になっている。
AnthropicとClaudeをめぐる二つの衝撃
-
サンフランシスコの連邦判事Rita F. Linが、トランプ政権によるAnthropicモデルの利用禁止を差し止めた。判事は政府の行為を「古典的な違法な第一修正権報復」と断じ、批判的意見を表明した企業を「潜在的な敵対者・妨害者」と位置づけることを「オーウェル的」と表現した。AIをめぐる政治的圧力と司法の対立が鮮明になった。
-
リークされたAnthropicの草稿ドキュメントにより、既存のOpusラインを超える新モデルクラス「Claude Mythos」の存在が明らかになった。「過去のどのモデルよりも劇的に高いテストスコア」を記録しており、サイバーセキュリティへの強い注力と、意図的にゆっくりとしたリリース戦略が採られる方針が示されている。
AIプラットフォーム戦争:乗り換え競争の本格化
-
GoogleがGeminiに、ChatGPT・Claudeからメモリ(設定・好み)とチャット履歴をインポートできる新機能を追加した。ユーザーの乗り換え障壁を積極的に取り除くことで、ChatGPTの牙城を崩す戦略を鮮明にしている。
-
先行していたAnthropicに倣い、GoogleもこのユーザーデータポータビリティをAI競争の軸に据えた。「記憶の移行」がAIサービスの差別化要因になりつつある点は、SNS時代のソーシャルグラフ競争と構造が似ている。
-
GitHubがCopilotの入出力データをAIモデルの学習に利用する方針を発表(個人向けプラン対象)。ユーザーはオプトアウト可能だが、コーディングアシスタントが生成したコードが再びモデルを鍛えるフィードバックループが正式に始動しつつある。
- 「GitHub Copilot」の作業データをAI学習に利用へ 個人向けプランで — ITmedia AI+
AIエージェントの標準化と開発基盤の整備
-
NISTが「AI Agent Standards Initiative」を発足。自律型AIエージェントの信頼性確保と相互運用性の実現を目指す取り組みで、「便利なだけでは普及しない」という認識のもと、業界横断の標準整備が加速している。
- AIエージェントは「便利なだけ」では普及しない? 標準化へ、イニシアチブ発足 — ITmedia AI+
-
MicrosoftがAIエージェント構築フレームワーク「Microsoft Agent Framework」のRC(リリース候補)版を公開。.NETとPython両言語で正式版リリースへの準備が整い、「型安全なコード呼び出し」を中心概念に据えた開発体験を提供する。
- 「型安全でコードを呼び出す」 AIエージェント開発の新基盤「Agent Framework」RC版公開 — ITmedia AI+
AI音楽生成の進化:Sunoが声の個人化へ
-
Suno v5.5が「Voice」機能を導入。ユーザーが自分の歌声をモデルに登録し、AI生成楽曲を自分の声で歌わせることが可能になった。個人スタイルへの適応学習も行われ、AI音楽生成のパーソナライズが大きく前進した。
-
「自分のAIクローンと歌い比べる」という体験が一般ユーザーに開放されたことで、音声アイデンティティと著作権、声のパーソナルデータ管理といった倫理的議論が今後高まることが予測される。
AIインフラと半導体:「RAMmageddon」と電力問題
-
韓国の半導体大手SK hynixが米国上場(IPO)を検討中で、調達額は100億〜140億ドル規模と見込まれる。AI向けHBMメモリの需要急増による深刻なメモリ不足(通称「RAMmageddon」)の緩和につながる可能性があり、業界全体の供給制約解消への鍵となる。
-
データセンターの急拡大は世界各地で電力網・地域住民・環境との衝突を引き起こしている。ケンタッキー州では82歳の女性が2,600万ドルの土地買収を拒否、近隣の2,000エーカーの再ゾーニングで対抗されるという事例も発生。AIインフラの物理的・社会的コストが顕在化している。
- The latest in data centers, AI, and energy — The Verge AI
- VCs are betting billions on AI’s next wave, so why is OpenAI killing Sora? — TechCrunch AI
AI×医療・科学:脳反応予測と外科支援
-
MetaがAIモデルを使って人間の脳が画像・音声・言語に反応する方法を予測するシステムを発表。注目すべきは、その予測が実際の個人1人のスキャンよりも典型的な脳反応に近い精度を示した点で、脳科学とAIの融合に新たな扉を開いた。
-
慶應義塾大学医学部発スタートアップDireavaが、外科手術を支援するAI「Surgical VLM」を発表。術中画像をリアルタイムで分析しアドバイスを提供する機能を持ち、外科医育成や技術標準化への活用が期待される。
- AIが外科手術を支援、術中画像を見て”アドバイス” 慶應医学部発のスタートアップ — ITmedia AI+
AIコンテンツの信頼性・ガバナンス問題
-
WikipediaがLLMによる記事生成・書き換えを原則禁止するガイドラインを公開。校正補助や特定条件下での他言語翻訳は例外として認めるが、内容の正確性と編集履歴に基づき違反を特定する方針。AIによる知識汚染への組織的な対応が始まった。
- Wikipedia、LLMによる記事生成を原則禁止に — ITmedia AI+
-
Metaの監督機関「Oversight Board」が、Community Notesをグローバル展開する計画に警告を発した。対応が遅く人員不足であるうえ、AI生成ディスインフォメーションの洪水に太刀打ちできないと指摘。一部の国ではプログラム自体を導入すべきでないと提言している。
-
電子書籍配信「クロスフォリオ出版」が、AI不使用の作品に「AI生成」と誤表記していた問題で謝罪。AI利用の透明性が求められる一方、誤ラベリングがクリエイターの権利を傷つけるリスクも浮き彫りになった。
- “AI不使用”の作品に「AI生成」と誤表記――電子書籍配信「クロスフォリオ出版」が謝罪 — ITmedia AI+
オープンソース音声認識:Cohereがベンチマーク首位に
- CohereがOpenAIの「Whisper」を含む全競合を上回るオープンソース音声認識モデルをリリース。ベンチマーク1位を主張しており、企業ユーザーが自社インフラに音声認識を組み込む選択肢が拡大した。
AI研究・論文
AI研究最前線:エージェント自律進化、知識融合、科学シミュレーションへの応用
2026年3月27〜28日のAI研究トレンドは、単なるモデル精度向上を超え、エージェントの自律的な自己改善と科学・工学領域への深い統合という二つの大きな潮流に収束している。LLMエージェントが過去の経験から学習し、ベンチマーク自体が「流動的適応知性」を問う形に進化する一方、物理シミュレーションや脳科学、気象予測においてもAIが精度の壁を突き破りつつある。マルチエージェント系における「集団的知性の落とし穴」や、AIへの信頼をゲーム理論で定式化する研究など、社会的・安全性の問いも深まっている。全体として、AIは汎用ツールからドメイン特化した知的パートナーへと移行する転換点にある。
AIエージェントの自律学習・自己改善競争
AIエージェントが「会話できる」レベルから「実世界タスクを継続的に学びながら完遂する」レベルへ移行する試みが複数の研究で同時進行している。
-
JiuwenClawはタスク管理に特化した自己進化型エージェントを提案。従来エージェントの最大の問題点である「要件変更時のフロー崩壊」や「ツール変更への非適応」を、動的な自己更新メカニズムで解決しようとする。実世界ワークフローの安定性という観点で産業応用を見据えた設計が特徴。
- openJiuwen Community Releases ‘JiuwenClaw’ — MarkTechPost
-
Experiential Reflective Learning (ERL) は、LLMエージェントが過去のインタラクションを「経験」として蓄積し、次タスクに反映する自己改善フレームワーク。現行の多くのエージェントが「毎回ゼロスタート」で同じ失敗を繰り返す問題を直接的に攻略する。シンプルな構造でありながら、特化環境への適応速度を大幅に改善する。
- Experiential Reflective Learning for Self-Improving LLM Agents — arXiv AI+ML+CL
-
ARC-AGI-3は、AGI評価の文脈で「指示なし・ターン制の抽象環境における探索・推論・計画」を測るインタラクティブベンチマーク。言語知識や外部知識を排除し、純粋な「流動的適応効率」のみを評価する設計はARC-AGI-1/2の哲学を継承しつつ、エージェント的知性の新しい試金石となる。
- ARC-AGI-3: A New Challenge for Frontier Agentic Intelligence — arXiv AI+ML+CL
-
マルチステップツールオーケストレーション研究では、LLMが複数の依存APIを正しい順序で呼び出し、中間出力を伝播するタスクにおいて、最先端モデルでもパラメータ値エラーが失敗の大きな割合を占めることを明らかにした。制約付きデータ合成と段階的報酬によるトレーニング手法を提案し、完全シーケンス実行精度を改善する。
- Training LLMs for Multi-Step Tool Orchestration — arXiv AI+ML+CL
-
autoresearchを用いたLLM vs 古典的ハイパーパラメータ最適化(HPO)の比較研究では、固定計算予算・固定探索空間という制約下でLLMベース手法が古典的HPOアルゴリズムに対して競争力があるかを検証。自動研究パイプラインの実用性評価として注目される。
- Can LLMs Beat Classical Hyperparameter Optimization Algorithms? — arXiv AI+ML+CL
知識グラフ・RAG・マルチモーダル情報融合
複数の研究が、孤立した情報源を「ナビゲート可能な知識グラフ」として統合し、RAGやエージェント的推論で活用するアーキテクチャを提案している。
-
IWE Context Bridge実装チュートリアルでは、RustベースのオープンソースPKMシステムをナレッジグラフ基盤として活用。Markdownノートをwikiリンクで有向グラフ化し、OpenAI Function CallingとAgentic RAGを組み合わせることで、開発者向けナレッジベースをLLMエージェントが自律的に走査・推論できる実装例を示す。ローカルLSPツールとAIを橋渡しする実践的アプローチ。
-
DyMRL(動的マルチスペース表現学習)は、知識グラフにおけるマルチモーダルイベント予測の課題に取り組む。既存研究が静的設定に偏り、動的な知識獲得・融合を軽視してきた問題を指摘。特に時間敏感な異なるモダリティ情報(動的構造モダリティを含む)の学習に焦点を当てた新手法を提案する。
-
AutoSAMは原子炉システムの安全解析分野に特化したエージェントフレームワーク。熱水力コード「SAM」の入力ファイル生成を自動化するために、異種工学文書からの設計データ抽出とマルチモーダルRAGを組み合わせる。従来は専門アナリストが手動で行っていた作業を自動化することで、高リスク・高専門性ドメインへのAI適用可能性を示す。
物理・科学シミュレーションへのAI深化
機械学習が物理法則を「制約」として内包し、従来の数値シミュレーションを超える精度・効率を実現する研究が集積している。
-
Physics-Informed Neural Network (PINN)を用いた蒸留塔のデジタルツインでは、AspenシミュレーションとPINNを融合し、トレイ単位・過渡条件下での動的モデリングを実現。産業プロセスの監視・制御・最適化への直接的な応用を示す。物理制約を組み込んだMLが製造業DXの核心技術になりうることを示唆する。
-
メッシュフリー離散微分演算子の学習研究では、グラフニューラルネットワークを多項式モーメント制約による自己教師あり学習で訓練し、複雑形状に対する柔軟な離散化を実現。古典的なメッシュレス手法が「低コスト・低精度」か「高精度・高計算コスト」のどちらかに偏る問題を克服する。
-
制約なしMLモデルと物理的対称性の関係を探る研究では、回転対称性を陽に組み込まない「制約なしモデル」が競争力ある性能を示す現象を分析。対称性の強制が必ずしも優位性をもたらさない条件を明らかにすることで、物理シミュレーション向けモデル設計の前提を問い直す。
- How unconstrained machine-learning models learn physical symmetries — arXiv AI+ML+CL
-
アナログ回路設計最適化へのActor-Criticフレームワーク(ACOF)適用研究では、デバイスサイズ・バイアスの微小変化ごとに高コストなシミュレーションが必要というアナログ設計固有のボトルネックを、「次にどこを探索すべきか」を判断する強化学習的アプローチで緩和する。
-
気象データへのコントラスト学習適用では、高次元・マルチモーダルな気象変数を共有潜在空間に圧縮する手法を提案。決定論的モデルと生成モデルの両方で精度向上を達成し、極端気象検出・予測の効率化に貢献する。
脳科学とAIの融合:マルチモーダル脳エンコーディング
- Meta TRIBE v2は、映像・音声・テキスト刺激に対するfMRI応答を統一的に予測する脳エンコーディングモデル。従来の神経科学研究が「特定の認知機能を孤立した脳領域にマッピングする」アプローチをとり、断片的な知識体系を生み出してきた問題に対し、クロスモーダル・統合型の脳活動予測フレームワークで応答する。AIと神経科学の双方向的な知見共有を推進する。
LLMの信頼性・バイアス・マルチエージェント系のリスク
大規模言語モデルの性能が向上する一方、その「判断」が何に基づいているかの解明と、システムレベルでの予期せぬ挙動への対処が急務となっている。
-
臨床インタビューにおける面接者効果バイアス研究は、うつ病自動検出モデルがANDROIDS・DAIC-WOZ・E-DAICの3データセットで、患者の発話ではなく面接者のプロンプトパターンに反応している可能性を示す系統的バイアスを発見。「一貫性がバイアスになる」逆説を示し、医療AIの解釈可能性研究に重要な問題提起をする。
-
ネットワークプルーニングと表現階層の分析では、プルーニングが非生成タスクでは性能を維持できても、生成タスクでは頻繁に失敗するという一貫した非対称性を、表現階層の観点から説明する。モデル圧縮の「効率化・性能維持」という前提が常に成立しないことを理論的に整理。
- Demystifying When Pruning Works via Representation Hierarchies — arXiv AI+ML+CL
-
マルチエージェント系のミーム的漂流(Memetic Drift)研究では、LLMマルチエージェントシステムの結果が「集団的推論」「系統的バイアス」「単なる偶然」のいずれを反映しているかを問う。どの個別エージェントも事前に特定のラベルを選好しないにもかかわらず、集団が急速に対称性を破って一つの答えに収束する「ネーミングゲーム」現象を分析。スケーリング則の観点からマルチエージェント集合知の信頼性を論じる。
-
信頼をモニタリングとして捉えるゲーム理論モデルでは、ユーザーのAI信頼を「監視コストの削減」として定式化し、AI開発者との反復非対称ゲームとして進化動態を分析。従来の「一回限りの採用選択」としての信頼モデルを超え、繰り返しインタラクションによって信頼が動的に形成される過程をモデル化する。AI安全性研究に経済学・進化生物学の視点を持ち込む試み。
プライバシー強化と分散学習の効率化
-
ランダムクロッピングによる差分プライバシー増幅研究は、コンピュータビジョンで最も一般的なデータ拡張手法であるランダムクロッピングが、差分プライバシー学習において未活用の「第三のノイズ源」として機能することを発見。顔・ナンバープレートのように空間的に局在化した機密コンテンツを確率的に排除する性質を利用し、追加コストなしでプライバシー保護を強化できることを理論的に示す。
-
水中IoTのための階層的連合異常検出では、音響通信の低帯域・高エネルギーコストという水中特有の制約に対し、選択的協調集約による階層型連合学習を提案。標準的なフラット連合学習が水中展開で直面する「長距離送信コスト」と「参加率低下」という二つの課題を同時に解決する。