Mar 11, 2026
2026年3月11日
この日のAIニュースレポート
コミュニティ
AI業界コミュニティ動向レポート(2026年3月11日)
本日のコミュニティ発信では、MCPエコシステムの実装・セキュリティ議論が複数の記事で取り上げられ、プロトコルの実用フェーズへの移行が鮮明になった。AIコーディングエージェントの分野では、Stripeの週1,300件超PR自動生成という具体的な大規模事例が注目を集めている。一方で、AIによるオープンソースライセンス回避という法的問題が浮上し、技術コミュニティに警鐘を鳴らす。LLMのベンチマーク・挙動研究も活発で、モデルサイズとコスパの最適解を探る実証的アプローチが増えている。AIエージェントのコスト暴走対策やRAGの限界を超えるAgentic Searchなど、実運用に即した議論が成熟しつつある。
MCPエコシステムの実装・普及と実践知識の蓄積
Model Context Protocolをめぐる記事が複数並び、概念理解から実装・セキュリティまで、コミュニティ内の関心が「入門」から「実用・安全運用」へ移行していることが確認できる。
-
MCPは「AIと外部ツールを繋ぐための標準プロトコル」として急速に普及し、Claude Desktop・Cursor・VS Code・OpenAI Agents SDKが対応済み。AIが抱える「リアルタイム情報へのアクセス不能」「毎回カスタムコードが必要」という3つの壁を解消する設計が評価されている
-
PythonでMCPサーバーを自作しClaude Codeに接続する実践的な実装ガイドが公開。
pip install "mcp[cli]"で導入でき、stdioの罠など実際にハマりやすいポイントが共有されている- PythonでMCPサーバーを自作してClaude Codeに接続する実践ガイド — Zenn LLM
-
MCPの普及と同時にセキュリティリスクが顕在化。OWASPがMCP Top 10(v0.1 Beta)を公開し、MCP固有の脆弱性を体系化。Palo Alto Networks Unit 42はMCPサンプリング機能の悪用事例を報告しており、実装者が早急にOWASP対策を施す必要性が強調されている
- MCPセキュリティ実践ガイド — OWASP Top 10と攻撃手法への対策 — Zenn LLM
-
Stripeの内製エージェント「Minions」は約500個のMCPツールを保有しながら、1タスクには15個のみ渡す設計を採用。過剰な権限付与によるエージェント暴走を防ぐ実運用知見として注目される
AIコーディングエージェントの大規模実用化
エージェントによるコード生成が「週1,000件超PR」という規模に達し、レビュー体制・安全設計・フォーマル検証など周辺課題が一斉に浮上している。
-
Stripeの「Minions」はエンジニアがコードを一切書かず、レビューとマージのみ担当するワークフローを実現。週1,300件以上のPRを自動生成・提出し、3万テストのCI環境を10秒で起動できるdevboxで完全隔離実行している
-
AIによる大量コード生成が新たなボトルネックとしてコードレビューを浮上させる中、Claude Codeに高度なコードレビュー機能が追加。人間が見逃しがちなバグまで検出する深いレビューに最適化されており、エージェント生成コードの品質保証ニーズに直接応える
- Claude Codeに高度なコードレビュー機能が登場。深いコードレビューに最適化し、人間が見逃しがちなバグまで検出 — はてなブックマーク IT
-
AnthropicはCoworkにプラグイン機能を追加。スキル・コネクター・スラッシュコマンド・サブエージェントを組み合わせて業務特化型Claudeをカスタマイズでき、チーム向けAIエージェントの個別最適化を可能にした
- Anthropic、Coworkに”業務特化Claude”を構築できるプラグイン追加 — はてなブックマーク IT
-
AIエージェントによるデータ構造・アルゴリズムのフォーマル化研究(AutoCLRS)が登場。エージェントが既存アルゴリズムを形式的仕様で検証するアプローチは、大規模コード生成時代の正確性保証として注目される
- Formalizing Data Structures and Algorithms with Agents — Lobsters AI
LLM評価・挙動研究:実証的アプローチの深化
モデルのランキング操作、サイズ別ベンチマーク、対話スタイルの個性比較など、LLMの「実際の挙動」を掘り下げる実証研究が活発だ。
-
Qwen3.5 Small(0.8B / 2B / 4B / 9B)を18種タスク・88回のAPI呼び出しで検証した結果、9Bが品質・速度ともに最強(軽量タスクは0.3秒で完了)、4BがVRAM半分で9Bに迫るコスパ最強と判明。さらに「思考モード(think=true)で正解→不正解に退化」するケースと「全モデルがmerge_sortedのバグを見抜けない」という限界も発見された
-
LLMリーダーボードを「重みを一切変えずに」首位に立てる手法が公開。「LLM Neuroanatomy」と題したこの研究は、評価指標そのものへの操作可能性を示しており、現行のベンチマーク体系の信頼性に根本的な問いを投げかける
-
CopilotとGeminiにラブレターを書かせて対話させる実験では、感情表現・比喩・距離感の取り方にモデルごとの個性が鮮明に現れた。通常のQAでは見えにくい「安全性ポリシーの反映」「文体の調整プロセス」などLLMの性格的差異を浮き彫りにする評価手法として有効性が示されている
- CopilotとGeminiを恋文で会話させてみたら、想像以上に深い対話が生まれた — Zenn LLM
AIエージェントのリスク管理:コスト暴走・検索精度・設計思想
エージェントが実運用に乗り始めたことで、「暴走しないための壁」をどう設計するかが重要な実装課題として議論されている。
-
.envや環境変数にAPIキーを置く運用ではエージェントが予算チェックを無視してAPIを呼び続けるリスクがある。bantoはAPIキーをmacOS Keychainに格納し、予算範囲内でのみキーを返す「構造的ゲート」を提供。キー取得時にコストをホールドし実コストで精算するため、Python 3.10+・外部依存ゼロで既存のOpenAI/Google/Anthropic連携に対応する- LLMエージェントのAPI暴走を構造的に抑える鍵番 ── banto — Zenn LLM
-
Stripeの設計思想「いいモデルを使うより、エージェントが暴走しない壁を作ることを優先」は、コスト制御の本質を突いている。MCPツールを1タスク15個に絞る設計も同じ哲学から来ており、過剰な能力付与への警戒が実用大規模システムの鍵とされている
-
RAGの限界(チャンクサイズ調整・ハイブリッド検索・リランキングを経てもなお回答精度が上がらない)を超えるため、Agentic Searchへの移行を検討する記事が登場。エージェントが自律的に検索戦略を立て直す能力が、社内情報検索の新たな解として注目されている
- RAGで足りなくなったので Agentic Search を調べてみた — はてなブックマーク IT
AIとオープンソース:ライセンスの崩壊と政治経済的批判
AIによってコードの「再実装」が容易になったことで、オープンソースの根幹を支える法的・倫理的枠組みが揺らいでいる。
-
AIを使えばオープンソースコードを元に再実装することが容易になり、ライセンスの義務(コピーライト継承・ソース開示など)を合法的に回避できる可能性が指摘されている。「合法であることと正当であることは違う」というオープンソース開発者の主張は、コミュニティに根本的な問いを突きつける
-
AIのスケーリングと加速主義を「既存秩序を維持するための覇権的戦術」として批判する学術論文が登場。人種・ジェンダー・人間中心主義との構造的な整合性を指摘し、AIを政治経済の診断装置として捉える視点を提示している
- AI, Decomputing and the Interregnum — Lobsters AI
フィジカルAI・ゲーム開発とコミュニティ実験
物理世界と接続したAIや、AIが扱いやすいゲーム環境選定に関するコミュニティの実践知が共有されている。
-
M5StackをUSBで接続するだけで動く「stackchan-atama」が公開。Claude CodeのスキルでLLMから制御可能なOSSとして、フィジカルAIブームの中でハードに依存しない軽量実装例を提示している
- アタマだけのスタックチャン「stackchan-atama」を作った — Zenn LLM
-
エージェントAI向けゲーム環境としてGodot Engineが急速に注目を集めている。シーンファイル(.tscn)がプレーンテキスト形式でAIが直接読み書きでき、GDScriptがPythonに類似してLLMの精度が高いことが理由として挙げられている
- ジャンル別:エージェントAIにやさしいゲーム環境 — Zenn LLM
セキュリティ・消費者問題:信頼性を揺るがすインシデント
AIとは直接関連しないが、テクノロジーへの信頼性を問うインシデントが複数報告された。
-
OBS Studioプラグインにマルウェアが混入。原因はパスワードの使い回しによる開発者アカウントの侵害で、オープンソースのサプライチェーンセキュリティの脆弱性を改めて露呈した
- OBS Studioプラグインにマルウェア混入。パスワード使い回しに起因 — はてなブックマーク IT
-
AmazonでノートPCのストレージ容量表記にOneDriveのクラウド容量を内蔵ストレージと合算する紛らわしい表記が拡大。「内蔵128GBなのに1.1TB表記」という例が確認されており、消費者の意思決定を歪めるとして問題視されている
- 内蔵128GBなのに「1.1TB」表記。AmazonのノートPCで紛らわしいストレージ記載が拡大中 — はてなブックマーク IT
AI最新ニュース
AI業界動向レポート 2026年3月11日
2026年3月11日、AI業界はエージェント技術の社会実装をめぐる法的・倫理的摩擦と、大型投資・買収による戦略的再編という二つの潮流が交差した一日となった。PerplexityのAIショッピングエージェントへの裁判所命令は、AIエージェントが人間の代わりに行動する際の「認可」問題を鮮明にし、MetaによるMoltbook買収はAIエージェント同士が交流するソーシャルインフラの構築競争を加速させた。一方、Mira MuratiのThinking Machines LabがNvidiaと結んだギガワット規模のコンピュート契約は、次世代AI開発の計算基盤争奪戦の激化を示す。YouTube・ドイツ裁判所・Amazonの動向はいずれも、生成AIコンテンツに対するガバナンス整備が法・企業双方の段階で本格化していることを物語る。
AIエージェントの権限と法的境界線
AIエージェントが人間のアカウントを使って実世界の取引を行う時、誰が「認可」を与えるのかという問いが法廷で争われ始めた。
-
PerplexityのCometブラウザが搭載するAIエージェントが、ユーザーに代わりAmazonで買い物を行う機能に対し、米連邦地裁のMaxine Chesney判事が差し止め命令を発令。Amazonは、Perplexityがユーザーアカウントに「無断でアクセスしている」という「強力な証拠」を提示したと裁判所は認定した。この判決はeコマースにおけるAIエージェントの将来的な位置づけを左右する先例となる可能性がある。
-
問題の核心は技術的な不正アクセスではなく、「ユーザーが自分のアカウントをAIエージェントに委任することをサービス提供者が拒否できるか」という権限の所在にある。ユーザーの明示的な意図があっても、プラットフォーム側の利用規約がエージェント委任を禁じていればアウトとなる構造は、AIエージェント普及の大きな制度的障壁になり得る。
-
GrammarlyがSuperhuman機能でThe VergeのNilay Patel、David Pierce、Tom Warrenら著名ジャーナリストの実名をAIエディタとして本人の許可なく使用していた問題も同根だ。GrammarlyはオプトアウトしなければAIが著者のアイデンティティを使い続ける設計を採用しており、「同意なき人格利用」という倫理問題が表面化している。
MetaのAIエージェント社会インフラ戦略
MetaがAIエージェント専用のソーシャルプラットフォームを取り込んだことで、エージェント同士が連携する「エージェント間社会」の構築競争が新フェーズへ入った。
-
Metaはreddit類似のAIエージェント専用プラットフォームMoltbookを買収し、チームをMeta Superintelligence Labsに合流させることを発表。MoltbookはAIエージェントが投稿・コメントし合うネットワークで、フェイク投稿によりバイラル化した経緯を持つ。
-
Metaが着目したのはMoltbookの「always-on-directory(常時稼働型エージェントディレクトリ)」という設計思想で、エージェントが互いを発見・接続し続ける基盤として「novel(革新的)」と評価した。これはAIエージェントが人間のソーシャルグラフとは独立した固有の通信インフラを持つという方向性を示唆する。
-
同時期にAgentMailが$600万の資金調達を発表。AIエージェントに固有のメールアドレスと受信箱を提供するAPIプラットフォームで、双方向会話・スレッド管理・ラベリング・検索・返信をサポートする。エージェントがメールという既存インフラを通じて外部と通信する基盤整備が進んでいる。
- AgentMail raises $6M to build an email service for AI agents — TechCrunch AI
AIスタートアップの大型投資とコンピュート争奪
元OpenAI CTOのMira Muratiが率いるThinking Machines Labの動向は、次世代AI開発の計算資源確保競争の最前線を映し出している。
-
NvidiaとThinking Machines Labが長期パートナーシップを締結。合意内容には少なくとも1ギガワットの計算能力と、NvidiaからThinking Machines Labへの戦略的投資が含まれる。1ギガワットという規模は大規模なデータセンター群に相当し、次世代モデル訓練を見据えた先行確保の性格が強い。
-
AIリーガルテック分野ではLegoraが$5億5000万のシリーズDをAccel主導で調達し、評価額$55.5億に達した。弁護士向けAIプラットフォームとして米国市場への本格展開を目指す同社の成長は、専門業務AIの高い市場価値を証明している。
産業・業務AIの広範な実装
AIの実用実装が医療・物流・生産性ツール・クリエイティブツールの各領域で同時進行している。
-
Amazonが健康管理AIアシスタントをWebサイトとアプリで正式公開。処方箋更新・予約管理・健康記録の説明・問診対応が可能で、医療へのAIアクセス窓口として機能することを目指す。
-
Fordがコマーシャルフリートとテレマティクスソフトウェア向けに「Ford Pro AI」を発表。車速・シートベルト着用状況・エンジン健全性などの車両データを生成AIで解析し、フリートマネージャー向けの実行可能なアクションアイテムに変換する。
- Ford is giving its commercial fleet business an AI makeover — The Verge AI
-
AdobeはPhotoshop向けAIアシスタントを初公開し、Fireflyへの新AI画像編集機能も追加。ZoomはAI搭載のオフィススイートを発表するとともに、今月中にAIアバターを使った会議機能とリアルタイムディープフェイク検出技術の提供を開始すると表明した。
AI生成コンテンツのガバナンスと著作権保護
規制・企業・法廷の三方向から、AI生成コンテンツへの統制強化が進んでいる。
-
YouTubeがAIディープフェイク検出ツールの対象を政治家・政府職員・ジャーナリストに拡大。既に数百万人のクリエイターが利用している類似検出機能のパイロット版を火曜日から提供開始し、権限のない肖像利用の削除申請を可能にする。
-
ドイツの地方裁判所が、SunoAIなどのAIツールで作曲した楽曲に人間が書いた歌詞を付けた場合、その歌詞の著作権は維持されるとの判決を下した。「AIで作った」と主張するだけでは著作権剥奪の根拠にならず、AIが生成したことを証明する責任が申立人側にあると判示した。
-
Amazonは相次ぐ障害の原因とされるAI生成コードの品質問題に対応するため、シニアエンジニアをAI生成コードの「人間フィルター」として機能させる体制に移行。AI補助コーディングの普及に伴うコード品質低下リスクをエンタープライズが直視し始めた事例として注目される。
ChatGPTの教育機能とユーザー体験の進化
OpenAIはChatGPTを「説明ツール」から「インタラクティブ学習環境」へと昇格させる機能を追加した。
-
ChatGPTが数学・物理トピックのインタラクティブビジュアライゼーション機能を実装。ユーザーが変数を操作するとグラフがリアルタイムで更新されるUI形式で、リリース時点で70以上のコンセプトに対応している。静的な図解からの脱却は、AI教育ツールとしての競争力を高める。
-
Googleはユーザー不満に応じてGoogle PhotosのAI搭載「Ask Photos」検索機能にオプトイン/オプトアウト選択を追加。AI機能のデフォルト強制に対するユーザーの反発が企業の設計判断を変えた事例として、AIサービス設計の参照点となる。
AIアプリのリテンション課題と収益化の現実
AIアプリは初期の熱狂的な採用とは裏腹に、長期的なユーザー定着という構造的課題に直面している。
- RevenueCatの最新レポートによれば、AIアプリはアプリ全体と比較して初期収益化では優れた指標を示す一方、長期リテンションでは低迷している。「価値の提供」から「継続的な価値の証明」への転換が、AIアプリビジネスの次の主戦場となっていることを示すデータだ。
科学的ブレークスルー:全脳エミュレーションの第一歩
AIと神経科学の交差点で、脳エミュレーション研究が新たな節目を迎えた。
- スタートアップEon Systemsが、ショウジョウバエの完全な脳エミュレーションを仮想ボディに接続し、複数の行動を初めて再現することに成功したと発表。エミュレーションは12万5000以上のニューロンと5000万のシナプスを含む。全脳エミュレーションの将来に向けた概念実証として、ニューロモルフィックAI研究への示唆は大きい。
AI研究・論文
AIエージェント実用化の加速と基礎研究の深化:2026年3月11日
AIエージェントが理論から現実ビジネスへと本格移行した週となった。MastercardがシンガポールでAIによる自律決済を実証し、金融・製造業でのエージェント統合が加速している。一方、研究コミュニティでは「エージェントをどう信頼するか」という根本問題に対し、LLMの安全評価手法の欠陥指摘やリスク認識エージェント設計など複数の論文が同時に提出された。モデル効率化・軽量化の研究も並行して進み、エッジデバイスへの展開を見据えた技術蓄積が着々と行われている。学習データの品質管理と重複処理が大規模学習の新たなボトルネックとして浮上しており、データ工学への再注目が起きている。
AIエージェントの産業実装:金融・商取引での自律化競争
-
MastercardがDBS・UOB両行と協力し、シンガポールで世界初の認証済みエージェント決済トランザクションを2026年3月4日に完了。AI エージェントがホテル予約からチェックアウトまでを自律実行した
- Mastercardがシンガポールでエージェント決済を実現 — AI News
-
金融インフラプロバイダーSEIがIBMと組み、エージェントAIによる内部業務の近代化に着手。プロセス再設計と標的型システム更新による一貫したクライアント体験の構築が目標
- 金融でのエージェントAIが業務自動化を加速 — AI News
-
ByteDanceがオープンソースの「SuperAgent」フレームワークDeerFlow 2.0を公開。サブエージェント・メモリ・サンドボックスをオーケストレーションし、複雑タスクを提案でなく実行するアーキテクチャを採用
- ByteDanceがDeerFlow 2.0を公開 — MarkTechPost
-
「Copilot時代」から「SuperAgent時代」への移行が業界全体で同時並行的に進んでいる。提案→承認→実行の人間介在モデルから、自律実行モデルへのパラダイムシフトを複数のプレイヤーが追認
- ByteDanceがDeerFlow 2.0を公開 — MarkTechPost
- 金融でのエージェントAIが業務自動化を加速 — AI News
ターミナル・コードエージェント:データ工学が次の競争軸に
-
NVIDIAがNemotron-Terminalを公開。Claude CodeやCodex CLIが非公開にしてきたターミナルエージェントの学習戦略とデータ混合手法を体系的に公開した初の研究
- NVIDIAがNemotron-Terminalを公開 — MarkTechPost
-
コード補完の新手法HEF(Hierarchical Embedding Fusion)が提案され、リポジトリをオフラインでキャッシュした階層的密ベクトルとして圧縮することで、オンライン推論コストをリポジトリサイズから切り離すことに成功
- 検索拡張コード生成のための階層的埋め込み融合 — arXiv AI+ML+CL
-
両研究が示すのは同一の問題意識:学習データと推論コストの非効率性こそがコードエージェントのスケール障壁であるという認識の共有
- NVIDIAがNemotron-Terminalを公開 — MarkTechPost
- 検索拡張コード生成のための階層的埋め込み融合 — arXiv AI+ML+CL
物理AI・デジタルツインによる製造業のROI実証
-
ABBとNVIDIAのパートナーシップにより、物理AIシミュレーションが工場自動化で実際のROIを生み出していることを実証。デジタル訓練モデルと実際の工場フロアのギャップ(照明・材料物理・環境変動)を埋める鍵として注目
- ABB:物理AIシミュレーションが工場自動化のROIを向上 — AI News
-
製造業のAI失敗の主因はテスト環境外での信頼性欠如。シミュレーションベースのアプローチがこの「sim-to-real gap」解決策として産業界での採用が加速している
- ABB:物理AIシミュレーションが工場自動化のROIを向上 — AI News
LLMの信頼性・安全性評価:現行手法の根本的欠陥が露呈
-
LLM-as-a-Judgeフレームワークがレッドチーミング評価で実質「コイントス」と同等の信頼性しか持たないことが実証。多様な被害者モデルや攻撃手法による分布シフトを既存の検証プロトコルが考慮できていない
- 安全性のコイントス:LLMジャッジは敵対的ロバスト性を信頼性高く測れない — arXiv AI+ML+CL
-
LLMの自信度と正解率を一致させる新手法が提案。出力のアンカートークン確率に基づく正規化信頼スコアを導入し、構造化タスクでの直接エラー検出とハルシネーション検知を実現
- 間違いを知る:LLMエラー検出のための信頼度と正確性の整合 — arXiv AI+ML+CL
-
内部批評家・自己一貫性推論・不確実性推定を統合したリスク認識エージェントの構築チュートリアルが公開。エントロピー・分散・一貫性指標で予測不確実性を定量化するアプローチを実装
- リスク認識AIエージェントの構築方法 — MarkTechPost
-
VLMの脆弱性を自動発見するFuzzingRLが提案。ファジングテストと強化学習の組み合わせにより、単一クエリから誤答を誘発する変種を自動生成
- FuzzingRL:VLMの失敗を明らかにする強化ファズテスト — arXiv AI+ML+CL
LLMの内部構造解明:アテンション機構とスケール特性の統一理論
-
アテンションシンク(特定トークンへの不均衡な注意集中)の発生メカニズムを解釈可能性の観点から分析。入力シーケンスの先頭トークンへの一貫した注意は有害ではなく構造的な例外であることが明らかに
- 大規模言語モデルにおけるアテンションシンクの出現:解釈可能性の観点 — arXiv AI+ML+CL
-
データ生成プロセスの階層的潜在構造がTransformerの多様なメカニズム現象を統一的に説明できることを示す研究が登場。スケールをまたいだモデル挙動の理論的基盤の構築へ
- データ生成プロセスの階層的潜在構造がスケールをまたいでメカニズム現象を統一する — arXiv AI+ML+CL
モデル効率化・軽量化:エッジ展開に向けた圧縮技術の競争
-
Switchable Activation Networksを提案。ドロップアウト(訓練のみ有効)や枝刈り(精度低下リスク)と異なり、推論時にもアクティベーション関数を動的に切り替えることでリソース制約環境での展開を可能に
- スイッチャブル活性化ネットワーク — arXiv AI+ML+CL
-
LegoNetが提案したブロック重みクラスタリングによるメモリフットプリント削減手法は、レイヤータイプを問わずモデル全体の重みブロックを構築・クラスタリングすることで組み込みデバイスのキャッシュ・RAM制約に対応
- LegoNet:ブロック重みクラスタリングによるメモリフットプリント削減 — arXiv AI+ML+CL
-
両手法とも既存技術(量子化・プルーニング・蒸留)の「部分的な解決策」という限界を踏まえた設計であり、複合的な効率化アプローチへの移行が研究トレンドとして確立しつつある
- スイッチャブル活性化ネットワーク — arXiv AI+ML+CL
- LegoNet:ブロック重みクラスタリングによるメモリフットプリント削減 — arXiv AI+ML+CL
学習データの質・発見・重複管理
-
SeDaフレームワークが200以上のプラットフォームから760万件超のデータセットを統合し、政府・学術・民間にまたがるデータセット発見と意味的注釈を一元化
- SeDa:データセット発見とマルチエンティティ拡張セマンティック探索の統合システム — arXiv AI+ML+CL
-
スケール依存的なデータ重複の研究が示した重要知見:表層一致を超えた意味的重複(翻訳等)は、モデルが十分に能力を持つと実質的に完全一致と同様の冗長な学習シグナルを生み出す
- スケール依存的データ重複 — arXiv AI+ML+CL
-
Khatri-Rao Clusteringによるデータ要約手法が提案。従来の重心ベースクラスタリングが持つ「プロトタイプ間の冗長性」問題をテンソル分解的アプローチで解決し、大規模データセットの効率的な要約を実現
- データ要約のためのKhatri-Raoクラスタリング — arXiv AI+ML+CL
低リソース言語・多様性への対応:アラビア語方言コーパスの構築
-
Ramsa:UAE固有のアラビア語(エミラーティアラビア語)の41時間音声コーパスが構築された。157人の話者(女性59名、男性98名)が参加し、都市・ベドウィン・山岳/シッヒィという方言区分をカバー
- Ramsa:ASRとTTSのための社会言語学的に豊かなエミラーティアラビア語音声コーパス — arXiv AI+ML+CL
-
英語・中国語中心のAI開発に対し、地域固有の言語・方言データの整備が国家・地域レベルで進んでいる。AI主権という観点から自国語データセット構築の重要性が増している
- Ramsa:ASRとTTSのための社会言語学的に豊かなエミラーティアラビア語音声コーパス — arXiv AI+ML+CL
LLMパーソナライゼーションと医療AI:応用領域の深化
-
トークンレベルのパーソナライゼーション研究が示す知見:LLMの応答内のトークンはパーソナライゼーションへの貢献度が均一ではなく、個人特化の最適化は応答全体ではなくトークン選択レベルで行うべき
- 大規模言語モデルにおけるパーソナライゼーションの再考:トークンレベルで — arXiv AI+ML+CL
-
電子健康記録(EHR)の不規則・非同期時系列データに対し、Structure-Aware Set Transformersが時間変数・変数タイプの注意バイアスを導入。離散化を避けつつ変数内軌跡を保持するアーキテクチャを実現
- 構造認識セットトランスフォーマー:非同期臨床時系列のための時間・変数タイプ注意バイアス — arXiv AI+ML+CL