Back

Mar 25, 2026

2026年3月25日

この日のAIニュースレポート

COMMUNITY

コミュニティ

Archive
25 sources | Reddit r/MachineLearningReddit r/LocalLLaMALobsters AIはてなブックマーク ITZenn LLM

AI業界コミュニティ動向レポート(2026年3月25日)

本日のコミュニティを最も揺るがしたのは、LiteLLMのサプライチェーン攻撃という深刻なセキュリティインシデントだ。オープンソースMLコミュニティへの信頼を根底から揺さぶるこの事件と並行して、GigaChatやMolmoWebといった新興オープンウェイトモデルのリリースが相次ぎ、ローカル推論の実用化が着実に進んでいる。日本では生成AIが初めて高校教科書に「活用方法」として掲載されるなど、教育現場への浸透が制度的に確立しつつある。AIエージェント構築の実践知識不足や、クラウド禁止環境でのローカルAI需要といった現場の切実なニーズも顕在化しており、技術の普及と運用の現実の間に依然として大きなギャップが存在する。


LiteLLMサプライチェーン攻撃:オープンソースMLツールへの深刻な脅威

LiteLLMのPyPIパッケージが悪意ある攻撃者に侵害されたことが判明し、コミュニティに緊急警告が飛び交った。オープンソースMLインフラへの信頼性を問い直す重大インシデントとして記録される。

  • LiteLLM バージョン1.82.7および1.82.8がPyPIで侵害されており、クレデンシャルスティーラー(認証情報窃取マルウェア)が混入。同ライブラリを使用する組織は即時のクレデンシャルローテーションが必須とされた

  • 攻撃の詳細はfuturesearch.aiのブログで技術的に解析されており、典型的なサプライチェーン攻撃の手口が確認された。数千のユーザーが影響を受けた可能性があるとされている

  • 本インシデントは、LangChainやLiteLLMのようなMLインフラレイヤーがサプライチェーン攻撃の標的として高価値であることを改めて示した。APIキー・LLMプロバイダー認証情報が集約されるゲートウェイ系ライブラリは攻撃者にとって特に魅力的なターゲットとなる


ローカルAIのセキュリティ懸念:OpenCodeとLM Studioへの疑惑

「ローカル」を謳うツールが実際にどの程度プライバシーを保護しているかについて、コミュニティによる独立した監査が活発化している。

  • OpenCode v1.3.0のソースコード監査により、7つの外部ドメインへの接続が確認された。すべてが無条件に通信するわけではなく、機能の利用状況やWebUI起動状態に依存するが、プライバシーポリシーが存在しないこと、および12件のコミュニティPRが3ヶ月以上マージされていないことも判明した

  • LM Studioが高度なマルウェアに感染している可能性があるとの報告がコミュニティに上がった。Windows Defenderが3件の検出を行ったとされるが、誤検知の可能性も議論されており、公式の確認待ちの状態である

  • これらの事例は、ローカルAIツールを選択する際に「オープンソースであること」だけでなく、定期的なソースコード監査とコミュニティエンゲージメントの質が重要な評価軸になることを示唆している


新興オープンウェイトモデルの台頭:GigaChatとMolmoWeb

ロシア発のGigaChatとマルチモーダルWebエージェントMolmoWebが同日リリースされ、オープンウェイトモデルのエコシステムが多様化している。

  • Sber(ズベルバンク)がGigaChat-3.1-Ultra(702B MoEアーキテクチャ)とGigaChat-3.1-Lightning(10B、アクティブパラメータ1.8B)をMITライセンスで公開。自社ハードウェアでスクラッチから事前学習されており、CIS言語圏(ロシア語等)での高品質な言語処理を主目標としている

  • MolmoWeb-4B/8BはフルオープンのマルチモーダルWebエージェントファミリーとして発表。同スケールのオープンウェイトモデル(Fara-7B、UI-Tars-1.5-7B、Holo1-7B)を上回り、MolmoWeb-8Bはより大規模なクローズドモデルであるGPT-4o上に構築されたSoMエージェントをも超えると報告されている

  • テスト時スケーリングの観点から、MolmoWebはパラレルロールアウトとbest-of-N選択によって一貫した性能向上を示した。pass@4スコアは94.7%および60.5%(pass@1での78.2%・35.3%から大幅改善)と報告されている


AIエージェント実装の実践知識ギャップ

エンドツーエンドのフレームワーク利用ではなく、エージェントの内部構造を理解して自前で構築したいという需要が顕在化している。

  • 「LangChainのラッパーではなく、エージェントループ・ツールコール・メモリ・プランニング・大規模コードベースでのコンテキスト管理・マルチエージェント協調を実際に実装する方法を学べるリソースがない」という問題提起に対し、コミュニティで活発な議論が展開された

  • Kimi K2.5がマウス・キーボード・スクリーンショットツールを使ったPC操作タスクで、ページロード待機という「忍耐力」を学習済み行動として示した。待機メカニズムを明示的に実装せずとも、継続的なスクリーンショット確認でページロードを判定するという実践的な適応行動が観察されている

  • SillyTavernをバックエンドとしてゲームNPCにローカルLLMを組み込む拡張機能が公開された。RPモデルとしてCydonia、ゲームマスターとしてQwen 3.5 0.8Bを使用し、ゲームのWikiデータ全体をSillyTavernに投入することでキャラクターのロアや関係性を再現する実装事例として注目される

  • Microsoft LearnをAgent Skillsとして参照させる仕組みがCopilot Studioに存在することが日本語記事で紹介。エージェントに特定の能力・知識・手順をモジュールとして定義し動的にロードする設計パターンは、LangChain等の抽象レイヤーに依存しないエージェント設計として参考になる


ローカルAI需要の高まりとハードウェア選択

クラウドサービス禁止やコスト低下を背景に、ローカル推論の需要が職場レベルにまで拡大している。

  • 企業のクラウドサービス禁止ポリシーを受けて、文書分析・レポート作成用に30Bモデルをスムーズに動作させたいというニーズが増加。予算$1,500でポータブルなローカルAIマシンを検討するケースが典型例として現れている

  • NVIDIAのDGX Sparkを2ヶ月使用したレビューでは、メモリ帯域幅が273 GB/sであり、Mac Studio(819 GB/s)の約3分の1、RTX 4090(1,008 GB/s)の約4分の1と低く、大規模モデルのスループットに制約があることが判明。一方でVRAM容量の壁(RTX 5090でも32GB)を超える用途には依然として優位性がある

  • AIサービス価格低下の傾向についてコミュニティで期待感が表明されており、ローカル推論との競争がクラウドAPI価格に下方圧力をかける構図が続いている


AIと雇用:2026年のレイオフトラッカーが示す現実

AIを理由とした大規模レイオフが複数の大企業で同時進行しており、コミュニティがデータを可視化し始めている。

  • 2026年にAIを理由としてレイオフを実施した主要企業のトラッカーが公開された。Oracle 25,000人、Meta 16,000人、Amazon 16,000人、Salesforce 5,000人、Block 4,000人と記録されている。MetaはAI以外のスタッフを削減しながら同時にAIロールの採用を続けており、「人材の置き換え」から「スキルの置き換え」への移行が明確に進んでいる

AI政策:ホワイトハウスフレームワークへのコミュニティの懸念

米政府のAI政策フレームワークがOpenAIの影響下にあるという見方がコミュニティで強まっている。

  • ホワイトハウスが公開したAI国家政策フレームワーク立法勧告は、州レベルのAI規制を実質的に無効化しながら連邦レベルの監視機能を意図的に分散・弱体化させていると批判されている。子どもの安全関連法案を「アイデンティティ確認インフラ」構築の入口として利用する意図があるという懸念もコミュニティから提起された

日本国内:教育・開発現場へのAI浸透

日本では生成AIが制度的な教育カリキュラムに組み込まれ、開発ツールの実用上の問題も日本語コミュニティで議論されている。

  • 2027年度から使用される高校教科書の検定が完了し、生成AIについて従来の「紹介・説明」にとどまらず、初めて「学習での活用方法」に踏み込んだ内容が掲載されることになった。制度的なAIリテラシー教育の確立として画期的な転換点となる

  • Claude Codeの「オートコンパクティング」問題が日本語で詳解された。モデルによりコンテキストウィンドウは200K〜1Mトークンであり、上限に達すると古い会話が自動要約・圧縮されるため、アーキテクチャ方針などの重要決定が失われるリスクがある。CLAUDE.mdやメモリファイルへの外部化が対策として有効とされている

  • MozillaがGeckoエンジンの独立した存在意義をブログで訴えた。AppleのWebKitとGoogleのBlinkによる二極支配が進む中、第三の独立エンジンとしてのGeckoの価値はブラウザ多様性とオープンウェブ維持の観点でAI時代においても重要な論点となる

DAILY NEWS

AI最新ニュース

Archive
25 sources | ITmedia AI+The Verge AITechCrunch AIThe Decoder

AI業界ウィークリーレポート:2026年3月25日

OpenAIが動画生成AI「Sora」の終了とDisneyとの大型ライセンス契約解消を発表し、業界に衝撃が走った。その一方でChatGPTはAIショッピングプラットフォームへの転換を加速させ、GoogleのGeminiも同様の方向性を打ち出すなど、AIアシスタントの「実用的な購買体験」をめぐる競争が激化している。インフラ面ではArmが35年の歴史で初めて自社CPUを発表し、MetaがAIデータセンター向けに採用する事例が注目を集めた。AIエージェントの自律化が進む中、LiteLLMのマルウェア感染という深刻なセキュリティインシデントも発生し、AIインフラを狙った新種の攻撃への警戒が高まっている。音楽業界では800万ドル規模のAIロイヤルティ詐欺という前例のない事件が明るみに出た。


OpenAIの戦略的転換:Sora終了とリソース再配分

  • OpenAIはXで「We’re saying goodbye to Sora」と公式発表し、動画生成AIの旗艦製品であったSoraのアプリおよびAPIの提供を終了する。2024年末にリリースされ、わずか数カ月でDisneyとの大規模ライセンス契約を締結していた製品の終了は、業界予想を大きく外れたタイミングだった。

  • Disneyとのライセンス契約も解消される見通しで、Sam Altmanが社内スタッフにその旨を通達したとWSJが報道。同社が「スーパーアプリ」などの新たな大規模プロジェクトにリソースを集中させるための戦略的判断と分析されており、生成AIのコア価値を「動画生成」から「エージェント・マルチモーダル体験」へシフトさせる意図が見える。

  • ChatGPTに導入していた「Instant Checkout」(チャット内で商品を直接購入できる機能)も撤退。代わりに商品画像・価格・比較表示などビジュアルショッピング機能を強化しつつ、決済はリテーラー側に委ねる形に転換した。Amazonとの直接競合を避けつつ、「検索・発見」フェーズでの価値提供に絞り込む姿勢が明確になった。


AIショッピング競争:ChatGPT対Geminiの新フロント


自律型AIエージェントの進化:速度と安全性のトレードオフ

  • AnthropicはClaude Codeに「autoモード」を追加し、AIがより少ない承認ステップでタスクを実行できるようになった。ただし同社は承認なしで実行できるアクションに明確な上限を設けており、「速度と安全性のバランス」を取ったアプローチを強調。完全自律化ではなく「制御されたオートメーション」という姿勢を示した。

  • GPT-5.4 miniがマルチエージェント開発向けの軽量モデルとして登場。「安価でエージェント用途に最適」という触れ込みだが、実態は前世代比3倍の値上げとなっており、コミュニティでは賛否が分かれている。ベンチマーク性能は向上しているものの、コスト意識の高い開発者への影響は無視できない。


AIハードウェア・インフラへの大型投資

  • Armが創業35年の歴史で初めて自社設計・製造のCPU「Arm AGI CPU」を発表。第一顧客はMetaで、同社のAIデータセンターにおけるエージェント推論処理向けに採用される。これまでライセンス供与のみを行ってきたArmが自社製品を持つことで、Intelや AMD、カスタムシリコンを持つGoogleやAmazonとの競合構図が大きく変わる可能性がある。

  • MicrosoftがテキサスのAbilineにあるデータセンターをリースする契約を締結。もともとOracle・OpenAIの「Stargate」プロジェクト向けに建設されたが、両社が撤退した施設をMicrosoftが取得した形だ。Stargateの計画変更とMicrosoftの積極的なインフラ取得姿勢を同時に示す動きとして注目される。

  • MicrosoftはAllen Institute for AI(Ai2)およびワシントン大学から複数のトップAI研究者を採用し、Mustafa Suleyman率いる「Superintelligence」チームを強化。研究人材の争奪戦が大学・非営利研究機関まで広がっていることを示している。

  • 50億ドルの資金調達を直近で完了したDatabricksは、AIセキュリティ分野の2社——AntimatterとSiftD.ai——を買収。これらを新たなAIセキュリティ製品の基盤とし、エンタープライズ顧客への提供を計画している。大型ファイナンス直後の矢継ぎ早な買収は、AI基盤レイヤーの垂直統合を急ぐ意図を示す。


フィジカルAIとロボティクスの産業化

  • 日立製作所が「フィジカルAI統合モデル(IWIM)」を発表し、現場で自ら学びながら動作を最適化できる試作ロボット2種を公開した。リアルタイムでの環境適応と複雑作業の自動化が特徴で、製造・物流現場向けのAIロボット実用化に向けた日本発の注目事例となる。

  • Agile RobotsとGoogle DeepMindがパートナーシップを締結し、産業用ロボットへのAI統合を推進。ミュンヘン拠点のAgile Robotsは、DeepMindの「Gemini Robotics」モデルを自社ハードウェアに組み込む形で工場向けロボットの知能化を図る。日立のIWIMと合わせ、産業現場でのフィジカルAI実用化競争が欧米・日本の主要プレイヤーを巻き込んで加速していることがわかる。


AIインフラを狙ったセキュリティ脅威の新局面

  • AIプロキシとして広く使われるオープンソースの「LiteLLM」がマルウェアに感染。Kubernetesクラスター全体に拡散し、認証情報を窃取する高度な攻撃であることが判明した。NVIDIA AI ディレクターのJim Fan氏は「AIエージェントを標的とした新クラスの攻撃」と警告しており、AIツールチェーンがサプライチェーン攻撃の新たなベクターとなりつつあることを示している。

  • GoogleはRSA Conference 2026でAI活用のダークウェブ分析機能をエンタープライズセキュリティ向けに発表。LiteLLMのインシデントと合わせて見ると、「AIで攻撃も防御も高度化する」双方向の軍拡競争が加速していることが明確だ。


音楽業界とAIの摩擦:詐欺・権利侵害の実態

  • ノースカロライナ州の男性が、AIが生成した楽曲を数千の偽アカウントで数十億回ストリーミングし、800万ドルを超えるロイヤルティを詐取した事件で有罪を認めた。AIによるコンテンツ生成と自動化ツールを組み合わせた大規模詐欺の実例であり、ストリーミングプラットフォームの不正検知システムの脆弱性を露呈した。

  • Spotifyはアーティストの名前にAI生成楽曲が誤って紐づけられることを防ぐ新ツールをテスト中。実在アーティストが知らぬ間に「AI生成スラップ」の被害を受けるケースが増加しており、アーティストが自分の名前に関連付けられるトラックを管理できる権限を強化する狙いだ。


GoogleのAIエコシステム拡張:テレビからエンタープライズまで

  • Google TVにGemini搭載の3機能が追加される。ビジュアルレスポンス、ディープダイブ(詳細解説)、スポーツブリーフ(スポーツチームの最新情報)を含み、テレビ視聴体験にAIアシスタントを深く組み込む。消費者向けデバイスへのGemini統合をリビングルームへ拡大する布石だ。

  • Gemini 3.1 Flash-Liteがほぼリアルタイムでのウェブサイト生成を実現するデモを公開。高速・低コストというポジショニングで、開発者向けの実用ユースケースとしてのコード生成・サイト構築領域に攻め込む姿勢を示した。


AIプライバシー・安全性への新アプローチ

  • OpenAIがティーン向け安全機能のオープンソースツールキットを公開。開発者がゼロから設計する必要なく、未成年ユーザー保護のためのポリシーや制御機能を自製品に組み込める。AI開発のエコシステムレイヤーで安全性を底上げするアプローチであり、規制強化を先取りした自主対応として評価できる。

  • ローカルファーストのAI議事録ツール「Talat」が登場。録音・文字起こし・要約のすべてをデバイス内で処理しクラウドに送信しない設計で、サブスクリプション不要。GranolaなどクラウドベースのAIノートツールに対するプライバシー重視の対抗軸を打ち出している。LiteLLMの情報漏えいインシデントが起きた同日に注目されるプライバシー志向製品だ。

RESEARCH

AI研究・論文

Archive
20 sources | MarkTechPostAI NewsarXiv AI+ML+CL

AI研究・論文トレンド分析:2026年3月25日

本日のAI研究トレンドは、LLM推論効率化の複数アプローチが同時多発的に発表された点が際立つ。KVキャッシュ管理・並列デコード・エネルギーコスト最適化は、スケーラブルなAI実用化における根本課題に取り組む研究群であり、業界全体の方向性を示している。また、自己進化するエージェント系の研究が複数登場し、AIが「経験から学習する」仕組みの実装競争が本格化しつつある。報酬モデルとRLHF設計にも新たな知見が加わり、LLMアライメント手法の精緻化が続いている。金融・神経科学への応用研究も活発で、研究成果の産業実装フェーズへの移行が加速している。


LLM推論効率化:KVキャッシュと並列デコードの革新

大規模言語モデルの実運用における最大のボトルネックはGPUメモリ管理であり、複数の研究がこの問題に異なるアングルから切り込んでいる。

  • Paged Attentionは、従来の「最大シーケンス長に基づく固定メモリ確保」の非効率を解消するアプローチ。リクエストごとに不連続なメモリページを動的割り当てすることで、GPUメモリの未使用領域(フラグメンテーション)を大幅削減し、同時実行リクエスト数を飛躍的に増加させる。vLLMはこの手法の代表実装として広く採用されている。

  • KVキャッシュの再利用戦略に関する実験的研究では、RAGシステムにおけるチャンクレベルキャッシング(CLC)の精度とスピードのトレードオフを体系的に分析。チャンク間のクロスアテンション依存関係の欠落が出力品質に与える影響を定量化し、複数の改善手法を比較評価している。

  • 拡散型言語モデル(DLM)における並列デコードの研究では、サブリニア生成レイテンシという理論的優位性を実現する上での課題(トークン間の結合依存性を無視した独立サンプリング問題)に対し、局所的一貫性を保つ新手法を提案。コード生成・編集タスクで特に有効性が高い。


学習効率化の最前線:TinyLoRA・連続拡散・先読み訓練

パラメータ数の削減と学習品質の両立を目指す研究が複数登場し、ファインチューニングコストの劇的な圧縮に向けた技術競争が激化している。

  • Meta FAIR・Cornell大学・Carnegie Mellon大学の共同研究が発表したTinyLoRAは、わずか13パラメータのファインチューニングでQwen2.5-7Bに対してGSM8K 91.8%を達成。極限的なパラメータ共有設定では単一の学習可能パラメータまで縮小可能であり、エッジデバイス展開や低コストカスタマイズへの道を切り開く。

  • CRoCoDiL(連続かつロバストな条件付き言語拡散モデル)は、Masked Diffusion Modelsの弱点であるトークン依存性の欠如と意味的非一貫性を、拡散プロセスを文レベルの連続意味空間にシフトすることで解決するアプローチを提案。非自己回帰型生成の品質課題に正面から取り組む研究として注目される。

  • Latent Lookahead Trainingは、次トークン予測という自己回帰モデルの根本的制約(各ステップで即時コミットを強制し複数の可能性を探索できない)を解消するために、潜在空間での「先読み」訓練機構を導入。トークンごとの均一な計算配分という非効率も同時に改善しようとする意欲的な提案。


報酬モデルとRLHFの精緻化

LLMアライメントの核心技術である報酬モデルに対して、効率性と精度の両面から新しいアーキテクチャが提案されている。

  • Fast-Slow Thinking Reward Modelは、高精度だが計算コストが高いGenerative RM(GRM)と、効率的だが性能が低いScalar RM(SRM)の二者択一という従来の制約を打破する統合アーキテクチャ。Chain-of-Thoughtによる推論と瞬時スコアリングを動的に使い分けることで、推論コストを抑えながら複雑なシナリオへの適応性を維持する。

  • Expected Reward Predictionの研究は、既存の報酬モデルが「固定プロンプトに対する単一モデルからのレスポンスをランク付けする」ことに特化している点に着目。レスポンスを生成する前段階でモデルのプロンプト適合度を予測できることを実証し、モデルルーティング(複数モデルの動的選択) への応用可能性を示した点が実用的に重要。


自己進化するAIエージェントと集合的推論

単発タスクをこなすAIから、経験を蓄積して継続的に賢くなるシステムへの移行を示す研究群が目を引く。

  • HKUDS開発のOpenSpaceは、AIエージェントが実行したタスクから新スキルを自動抽出し、集合知として共有する「自己進化型スキルエンジン」。コールドスタート(既存スキルなし)から始まりタスク実行のたびにスキルライブラリが拡充される仕組みにより、トークン効率の継続的改善と集合的知性の形成を実現する。

  • AgenticGEOは、生成型検索エンジン最適化(GEO)を自律エージェントで自動化するシステム。従来の静的ヒューリスティックに依存するGEO手法を超え、LLMベースの検索エンジンにおけるコンテンツ可視性・帰属最大化を動的に追求する。「ランキング」から「コンテンツ包含」へと最適化目標が変化した生成型検索時代のSEO課題に対応。

  • Multi-Agent Debate with Memory Maskingは、複数のLLMエージェントが多ラウンドの討論を通じて推論するMADフレームワークに「メモリマスキング」機構を導入し、エージェント間の情報共有の最適化と推論品質の向上を両立させる。推論時スケーリングを活用するアーキテクチャとして注目。


Yann LeCunのLeWorldModel:JEPAと世界モデルの新地平

Meta AI主任科学者Yann LeCunが主導する世界モデル研究が新展開を見せている。

  • LeWorldModel(LeWM)は、ピクセルベースの予測型世界モデルにおけるJEPA(Joint-Embedding Predictive Architecture)の「表現崩壊」問題に取り組む研究。潜在空間での予測目標を単純に満たすために冗長な埋め込みを生成する崩壊現象を、複雑なヒューリスティックなしに防止する新アプローチを提案。自律型AIエージェントの推論・計画能力の基盤となる世界モデル研究において重要な前進。

エネルギー効率と持続可能なLLM推論

計算コストと環境負荷への関心が高まる中、LLM推論のエネルギー効率を再定義しようとする研究が登場した。

  • 「Energy-per-Token(トークンあたりエネルギー)」を新たな評価指標として提唱するこの研究は、多くの実用タスクでは大規模LLMの全能力が不要であるという現実に基づく。Chain-of-ThoughtなどのAdvanced Reasoningで強化された小型言語モデル(SLM)が、特定タスクでは大型モデルと同等の精度を大幅に低いエネルギーコストで達成できることを示す。リクエスト量の多い本番環境での影響が大きい。

金融AIの実用化とハルシネーション対策

金融分野でのAI活用は急速に進むが、精度・信頼性への要求水準の高さから独自の技術課題が顕在化している。

  • マルチモーダルAIによる金融ワークフロー自動化の研究では、従来のOCR技術では処理困難だった複雑レイアウトの非構造化ドキュメント(多段組ファイル・画像・複合データセット)の正確なデジタル化・構造化を、マルチモーダルAIフレームワークが実現できることを示す。コンプライアンス・リスク評価・意思決定支援への応用が視野に入る。

  • FinReflectKG-HalluBenchは、金融QAシステムにおけるGraphRAGのハルシネーションを体系的に検出・評価するベンチマークを構築。Knowledge Graph拡張型QAシステムが事実的に誤った出力を生成する問題に対し、組織的な検出メカニズムが欠如している現状を問題提起し、金融情報システムの信頼性確保に向けた評価基盤を提供する。


AIセキュリティと量子耐性:次世代の脅威に備える

現在のAIシステムが直面するセキュリティリスクは、古典的脅威にとどまらず量子コンピューティング時代の到来も見据えた対策が求められている。

  • Utimaco発行の「AI Quantum Resilience」eBookが引用する証拠によれば、セキュリティリスクが組織のAI採用における最大の障壁として認識されている。組織が保有するデータの価値がAI性能の源泉である一方、そのデータを用いたモデル訓練・構築プロセス自体がリスクを内包する矛盾に直面。量子耐性への移行とハードウェア保護データエンクレーブの活用が解決策として示されている。

神経科学とブレイン・コンピュータ・インターフェース

AIの応用最前線として、脳信号と言語・認知のインターフェース研究が着実に進展している。

  • 脳エンコーディング・デコーディングへの統計的学習フレームワーク適用の研究では、限られたfMRI-刺激ペアデータと被験者間の大きな異質性という二重の課題に対し、軽量アライメントフレームワークによってサンプル効率を改善する手法を提案。脳活動と外部刺激の関係解明という神経科学の根本問題に対して機械学習が貢献する。

  • 皮質内音声デコーディング研究は、脳-コンピュータインターフェース(BCI)向けに文脈的なseq2seqモデルを導入し、従来のフレーム単位音素デコーディング+下流言語モデルの組み合わせを超える可能性を探る。限られたデータと日々の変動への頑健性、解釈可能性の改善が主な貢献点。


自動運転と感情認識:AIの応用領域の拡大

  • 自動運転テストにおける緊急車線変更シミュレーションの研究では、強化学習に依存する従来手法ではリアルな緊急行動の学習が困難という課題に対し、行動ガイダンスアプローチによる高リスクシナリオ生成手法を提案。仮想シミュレーションの効率性を活かしつつ、現実的な危険シナリオの網羅性を高める。

  • 感情検出の言語的シグネチャ研究は、トランスフォーマーベースモデルの性能向上が続く感情認識タスクにおいて、感情がどのような言語的規則性として表現されるかを体系的に解析。感情特有の言語的特徴を信頼性の高い解釈可能なシグナルとして活用する可能性を検討し、モデルの説明可能性向上に貢献する。