Apr 26, 2026
2026年4月26日
AIニュースの多角的分析レポート
コミュニティ
AIコミュニティ動向レポート — 2026年4月26日
2026年4月下旬、AIコミュニティではFP4量子化によるローカル推論の高速化が一大テーマとして浮上し、llama.cppとik_llama.cppの両プロジェクトがほぼ同時期にFP4サポートを実装するという歴史的な節目を迎えた。モデル面ではDeepSeek V4のリリースとKimi K2.6・MiMo V2.5 Proの登場でオープンウェイト競争がさらに激化する一方、V4のトークン効率低下問題がコミュニティで批判的に議論された。AIエージェントの本番運用に関する知見共有も活発化しており、安全性・可観測性・責任経路の設計が実務の焦点となっている。学術コミュニティでは査読にLLMが多用される副作用として字数制限付きリバタール(反論文)の質低下が懸念されており、研究者間で対策が議論されている。
FP4量子化:ローカル推論の新フロンティア
-
llama.cppとik_llama.cppの双方でFP4サポートが実装された。前者はNVFP4(Nvidiaのブロックスケールド形式、
GGML_TYPE_NVFP4 = 40)、後者はMXFP4(MX標準規格、GGML_TYPE_MXFP4 = 39)と形式が異なり、両者は互換性がない点に注意が必要。ik_llama.cppはAVX2・NEON・Zen4・CUDAを含むCPU実装も完備しており、カバレッジの広さで先行している。- FP4 inference in llama.cpp (NVFP4) and ik_llama.cpp (MXFP4) landed - Finally — Reddit r/LocalLLaMA
-
GLM 5.1のNVFP4版が4×RTX 6000 Pro(各350W制限) で動作検証され、プリフィル速度2229 pp/s(コンテキスト0時)、生成速度42 t/sを達成。64Kコンテキストでも863 pp/s・35.87 t/sを維持しており、長文処理での実用性が示された。
- GLM 5.1 Locally: 40tps, 2000+ pp/s — Reddit r/LocalLLaMA
-
Qwen3.6-27BのNVFP4+MTPバージョンがHugging Faceで公開され、単一RTX 5090で218kコンテキスト・約80 t/sという数値が報告された。vLLM 0.19.1rc1を使用したレシピはQwen3.5系と共通で流用可能。
- Qwen3.6-27B at ~80 tps with 218k context window on 1x RTX 5090 served by vllm 0.19 — Reddit r/LocalLLaMA
-
llama.cppのCUDA MMQストリームKオーバーヘッド削減PR(#22298)がMoEモデルのプロンプト処理速度向上に貢献。FP4対応と合わせてMoEアーキテクチャのローカル推論効率化が加速している。
- CUDA: reduce MMQ stream-k overhead by JohannesGaessler · Pull Request #22298 — Reddit r/LocalLLaMA
ローカルLLMハードウェア実践:RTX 6000〜M2 MacまでのフィールドレポートM
-
2×RTX 6000構成のベンチテストでは合計消費電力が壁コンセントで約1650Wに達し、1600W titaniumグレードPSUのギリギリを稼働。CPU(HX)はGPUフル稼働中でも約95℃で安定しており、エアクーリングHXの耐熱性が確認された。GPUは安全マージンとして各535Wにキャップ。
- 2x RTX 6000 build during an extended bench test — Reddit r/LocalLLaMA
-
32GB RAM搭載M2 MacBook ProでQwen3.6 35B-A3B(Q量子化)を実用運用するHOW-TOが投稿。llama.cppを使いタイトなスペック内で動作させるチューニングのポイントを共有しており、Apple Siliconでの最新MoEモデル活用の参考例となっている。
- Field report: coding with Qwen 3.6 35B-A3B on an M2 Macbook Pro with 32GB RAM — Reddit r/LocalLLaMA
-
Ubuntu 26.04がAMD XDNA2 NPUのセットアップを大幅に簡略化。lemonade-serverプロジェクトとの連携でLinux上のNPU活用の敷居が下がっており、次世代APUを使ったローカル推論環境の選択肢が広がっている。
- PSA: Ubuntu 26.04 makes it easier to get started with AMD XDNA2 NPU — Reddit r/LocalLLaMA
-
ローカルエージェントワークフローに必要な最低トークン速度についてコミュニティ調査が行われ、26 t/s程度でもClaude Code+Anthropic APIと同等の体験が得られるという実感が共有された。RTX A6000でQwen3.6-27B Q6_K_Lを200Kコンテキストで稼働させた事例。
- What do you consider to be the minimum performance (t/s) for local Agent workflows? — Reddit r/LocalLLaMA
新モデル競争:DeepSeek V4・Kimi・MiMoが激突
-
DeepSeek V4(2026年4月24日リリース)は1Mコンテキストと新アテンションアーキテクチャを搭載し、エージェンティックコーディングのオープンソースSOTAを主張。ただしAPIのレガシーモデル名(deepseek-chat/deepseek-reasoner)は2026年7月24日に廃止予定であり、移行対応が急務。
- DeepSeek V4 APIマイグレーションガイド — Zenn LLM
- DeepSeek V4 Update — Reddit r/LocalLLaMA
-
コミュニティからはDeepSeek V4 Proの知性密度低下を指摘する声も上がった。V3.2の論文でもトークン効率の課題が認められていたが、V4 Proでは非思考モードでもV3.2より大幅にトークンを消費し、V4 Pro(1.6T)はV3.2の約2倍というコスト比較が報告されている。
- Decreased Intelligence Density in DeepSeek V4 Pro — Reddit r/LocalLLaMA
-
Kimi K2.6をBlood on the Clocktower(高難度ソーシャル推理ゲーム)で64ゲームベンチマークした独自評価が投稿。平均生成速度は低いものの一貫したゲーム勝利でリーダーボードを制覇。低速でも高品質な推論戦略が優位との結論。
- Kimi K2.6 - the mighty turtle that wins the race — Reddit r/LocalLLaMA
-
Xiaomi MiMo V2.5 ProがArtificial Analysis Intelligence Indexでスコア54を記録し、ウェイト公開も予告(“Weights are coming”)。スマートフォンメーカーが競争力のあるフロンティアモデルをオープンウェイトで展開する動きが加速している。
-
Darwin-36B-Opusは36BパラメータのMoEモデルで、Darwin V7進化的ブリーディングエンジンによりQwen3.6-35B-A3Bを父、Claude Opus 4.6推論蒸留版を母として生成された実験的な試み。コミュニティ主導の「モデル交配」という新しいアプローチを示している。
- FINAL-Bench/Darwin-36B-Opus · Hugging Face — Reddit r/LocalLLaMA
AIエージェント本番運用:安全性・可観測性・責任設計
-
NVIDIA NeMo Agent Toolkitの本番運用ガイドとして、NeMo Guardrails+多言語Safety Guard(安全レール)、LangGraph(振る舞い設計)、Langfuse self-hosted(観測・プロンプト管理・コスト追跡・評価データセット管理)の4本柱構成が実践的ハンズオン本としてZennで公開された。
- NeMo Agent Toolkit 実践運用編 — Guardrails × Langfuse — Zenn LLM
- NIM + Docker ではじめる NeMo Agent Toolkit ハンズオン — Zenn LLM
-
AIエージェントの行為を「読む・提案する・内部状態変更・外部影響・可逆・不可逆・緊急停止」に分類するAction Class Matrixが提案された。行為分類なしに責任経路を設計すると制御不能になるという主張で、エンタープライズ導入における安全ガバナンス設計に実践的示唆を与えている。
-
Shield 82M(distilroberta-baseのファインチューン版)がリリース。8200万パラメータでテキスト中のPII(個人識別情報)をあらゆる言語で検出・マスキングし、PERSON・EMAIL・PHONE等のタグに置換する。本番LLMパイプラインへの組み込みに最適なサイズ感。
- Shield 82M: A PII stripping/filtering model — Reddit r/LocalLLaMA
学術コミュニティ:LLM査読の副作用と字数制限問題
-
AI系国際会議でのリバタール(著者反論)に文字数制限2500字が課される一方、LLMを使った長大なレビューコメントが急増し、著者側が全指摘に応答できない非対称問題が表面化。初投稿者を中心に戦略的な対処法をコミュニティで模索している。
- How to deal with rebuttal character limit for long reviews? — Reddit r/MachineLearning
-
UAI 2026ではリバタール欄(2500字)に加えパブリックコメント欄(5000字)が別途設けられており、実質的に後者を補足反論に活用できるかが議論された。ICML(5000字)と異なる制限体系が混乱を招いている。
- UAI 2026 rebuttal — Reddit r/MachineLearning
理論・技術研究:トランスフォーマーの表現力とVLAモデル
-
トランスフォーマーの表現力を「簡潔性(succinctness)」で定量化した研究が注目を集めた。有限オートマトンやLTL論理式より大幅に簡潔にフォーマル言語を表現できることを証明する一方、この高表現力の副作用としてトランスフォーマーの性質検証はEXPSPACE完全(指数空間完全)であり計算量的に困難であることも示した。
- Transformers are Inherently Succinct — Lobsters AI
-
Vision-Language-Action(VLA)モデルの技術解説記事が話題を集めた。OpenVLA・RT-2・π0・GR00Tの動作原理を整理し、行動デコードの主要アプローチ(トークン化自己回帰・拡散ベース行動ヘッド・フローマッチングポリシー)を比較。体現型AIが急速に主流化する中でコミュニティの基礎理解底上げに貢献している。
- How Visual-Language-Action (VLA) Models Work — Reddit r/MachineLearning
実用ツールとセルフホストエコシステム
-
セルフホスト型ダッシュボードDashyが注目された。Dockerで動作しユーザーごとのログイン、サービスリンク整理、オンライン状態確認、RSS・天気ウィジェット等を無料で実現。自宅サーバー管理者向けのモダンなオープンソースソリューションとして支持を集めている。
- 無料で自分好みのダッシュボードを作成できる「Dashy」 — はてなブックマーク IT
-
GeminiのGem機能を活用して社内Google Driveの資料をナレッジベースとするチャットボット構築事例が公開された。ファイル数・フォルダ階層が増大した社内Drive検索の代替として、GeminiのRAG機能を低コストに実装する手法として評価されている。
- Gemini の Gem で 社内 GoogleDrive のチャットボットを作成 — はてなブックマーク IT
-
エンジニア・Vicki Boykisによる「自分自身のために花を作れ(Build yourself flowers)」という内省的エッセイがLobstersコミュニティで話題に。AIツールが飽和する中で個人が何を本当に作りたいかを再問う姿勢が共感を呼んでいる。
- Build yourself flowers — Lobsters AI
AI最新ニュース
AIニュース分析レポート:2026年4月25日
2026年4月25日のAI業界は、複数の構造的転換点が同時に訪れた日として記録されるかもしれない。OpenAIがGPT-5.5を投入し価格と性能の両面で新たなハードルを設けた一方、AnthropicはエージェントAI同士が実際に取引を行う実験結果を公開し、自律型AIが人間の経済活動に入り込む段階が現実であることを示した。資本面ではGoogleがAnthropicへ最大400億ドルの投資を発表し、AmazonとあわせてAnthropicへの外部資金は短期間で最大650億ドルに達する見通しとなった。欧州では地政学的リスクを背景にCohereとAleph Alphaが合併を決断、「主権AI」という概念が市場に登場した。そして連邦準備制度の調査が示すように、AI台頭後の米国ではプログラマー雇用の伸びが半減しており、業界の熱狂と一般市民の感覚の乖離は拡大している。
GPT-5.5登場:性能・価格・アーキテクチャの刷新
OpenAIは新たなフラッグシップモデルGPT-5.5を正式リリースした。「新たな知性の段階」と自称するこのモデルは、コーディング・エージェント機能を旧モデルに統合する形で設計されており、APIエコシステムと開発者ツールに広範な影響を与えつつある。
-
GPT-5.5はAPIで前世代比約2倍の価格となり、さらにそれ以前の発表より20%高いという重層的な値上げが行われた。一方でベンチマーク首位を奪還しており「プロプライエタリモデルの中では依然コストパフォーマンスが最高」とも評価されている。ただしハルシネーション(幻覚)頻度は依然高く、実務利用における信頼性の課題は未解決のまま残る。
- GPT-5.5はベンチマーク首位も幻覚頻度が高くAPIコストは20%増 — The Decoder
- OpenAI、GPT-5.5発表:「新たな知性の段階」をAPI価格2倍で — The Decoder
-
GPT-5.4以降、Codexと主力モデルは単一システムに統合され、コーディング専用ラインは廃止された。GPT-5.5はこれをさらに推進し、エージェント的コーディング・コンピューター操作・複合タスクで大幅な性能向上を実現している。
- Romain Huet引用:OpenAIはGPT-5.5-Codexを独立リリースしない — Simon Willison
-
OpenAIはGPT-5.5向けプロンプティングガイドを公開した。注目すべき推奨事項は「マルチステップタスクでツール呼び出しが始まる前に、ユーザー向けに1〜2文の進捗更新を送る」という設計指針で、応答体験の設計が開発者に委ねられる形になっている。
- GPT-5.5プロンプティングガイド — Simon Willison
-
CLIツール「llm」のバージョン0.31がリリースされ、
llm -m gpt-5.5でGPT-5.5に即時アクセス可能になった。verbosity(思考量)設定-o verbosity low/medium/highが追加され、API利用コストを開発者がチューニングできるようになった点が実務上重要。- llm 0.31リリース — Simon Willison
エージェントAI同士が実際に取引:人間の見えない格差
AIエージェントが自律的に交渉・取引する世界が実験段階を超えつつある。Anthropicの内部実験とUAEの国家政策が、異なるスケールで同じ方向性を指し示している。
-
Anthropicは69体のAIエージェントが社員を代理して売買交渉を行う内部マーケットプレイスを1週間運営した。強力なモデルを持つ社員が有利な取引を獲得し、弱いモデルを割り当てられた社員はそれに気づいていなかった。AIの能力格差が、人間が知覚しないまま経済的不平等を拡大させる可能性を具体的に示した実験。
- Anthropic:強いAIはより良い取引を引き出し、負けた側は気づきもしない — The Decoder
- AnthropicがAIエージェント間商取引の試験的マーケットプレイスを構築 — TechCrunch AI
-
UAEは2年以内に政府業務の50%を自律型AIシステムに移行する計画を発表した。一国家の公共行政をAIエージェントが半分担うという構想は前例がなく、行政効率化を主眼とするが、説明責任・透明性・民主的統制に関する国際的な議論を呼ぶことが予想される。
- UAEが2年以内に政府業務の半分を自律型AIエージェントで運営する計画 — The Decoder
Anthropicへ最大650億ドル:AI覇権を賭けた巨大資本の集中
GoogleとAmazonによるAnthropicへの投資が確定し、単一のAI企業に流れる資金量が歴史的水準に達した。
- Googleは最大400億ドル(約6兆円)をAnthropicに投資することを発表。これは数日前に発表されたAmazonの250億ドルの誓約と合わせ、数週間以内に最大650億ドルがAnthropicに流入する見通しとなる。AI基盤モデル競争において、企業単体の資金力だけでは不十分で、テック大手のバックアップが前提条件となる構造が固まりつつある。
- GoogleがChatGPT対抗のAnthropicに最大400億ドルを投資 — The Decoder
- GoogleがAnthropicに最大400億ドルを投資へ — Ars Technica AI
「主権AI」という新市場軸:CohereとAleph Alphaの合併
欧米を超えたAI競争の地政学的再編が始まっている。
- カナダのCohereがドイツのAleph Alphaを買収、独小売大手Lidlの親会社Schwarz Groupの支援を受ける形で合意した。両国政府の支持のもと、米国企業(OpenAI、Google、Anthropic)が支配するAI市場に対し、企業・政府向けの「主権AI」代替インフラを提供することを目指す。データ主権・規制適合・欧州ガバナンスを重視する顧客層の獲得が狙い。
- CohereがAleph Alphaと合併する理由 — TechCrunch AI
オープンソースの逆襲:Qwen3.6-27Bが効率性の常識を塗り替える
大規模モデルほど優れているという前提が、再び崩れ始めている。
- AlibabaのオープンソースモデルQwen3.6-27Bは270億パラメータで、その15倍のパラメータを持つ前世代モデルをコーディングベンチマークの大半で上回った。パラメータ規模とモデル性能の比例関係が成立しなくなっており、学習効率・アーキテクチャ改善が性能競争の主戦場となっていることを示す。
- Qwen3.6-27Bは前世代の巨大モデルをほとんどのコーディングベンチマークで上回る — The Decoder
AIと雇用:プログラマー求人成長が半減、見えにくい構造変化
AIの業界熱とは裏腹に、労働市場では静かなが重大な変化が進行している。
-
米連邦準備制度理事会の調査によると、ChatGPT登場(2022年末)以降、米国のプログラマー求人の伸びは約半分に落ち込んだ。生成AIの恩恵を最も享受する職種であるプログラマー自身の雇用が圧迫されているというパラドックスは、AI導入が生産性向上と雇用維持を同時に実現するという楽観論に疑問を投げかける。
- 連邦準備制度調査:ChatGPT登場以来、米国プログラマー求人成長が半減 — The Decoder
-
Nilay Patelの論考は「ソフトウェア脳」を持つ人々(世界を自動化すべき情報フローとして捉える層)と一般市民の感覚的ギャップを鋭く分析する。ChatGPTの利用数は伸び続ける一方で、AIへの一般的な支持率は低い。この「利用しているが好きではない」という分裂した心理状態こそ、AI業界が見落としがちな重要な社会的現実である。
- 人々は自動化を望んでいない — Simon Willison
データセンター政策とインフラ規制の最前線
AI計算基盤の拡大を巡り、環境・地域コミュニティとの摩擦が法制度レベルに達している。
- メイン州知事は米国初の州全体データセンター建設モラトリアム法案(2027年11月1日まで新規データセンター建設を禁止)を拒否権行使で否決した。エネルギー消費・土地利用への懸念から生まれた規制の試みは頓挫したが、同様の動きは他州でも起こりうる。AI投資の地理的分散と地域政治リスクが事業計画に組み込まれるべき段階に入っている。
- メイン州知事、データセンターモラトリアムに拒否権を行使 — TechCrunch AI
AIの倫理と企業責任:OpenAIの公開謝罪
AI企業が社会的責任を問われる局面が増えている。
- OpenAI CEOのSam Altmanはカナダ・Tumbler Ridgeの住民に書簡で「深く申し訳ない」と公式謝罪した。最近の銃乱射事件の容疑者について同社が法執行機関に事前通報しなかったことが問題の発端。AIモデルが生成するコンテンツや収集する情報に関し、企業がどこまでの通報義務を負うかという法的・倫理的論点が顕在化した事例。
- OpenAI CEOがTumbler Ridgeコミュニティに謝罪 — TechCrunch AI
開発者・ユーザー体験の現場から:ヴァイブコーディングと画像生成の最前線
技術的な進歩が実際の現場でどう体験されているかを示す実践的な報告が相次いだ。
-
数学が苦手な文系ライターが富士山麓のAIハッカソンでMacBook NeoとAIを活用してゲームをプログラミングするという体験記は、「ヴァイブコーディング」(雰囲気駆動のコーディング)が専門知識なしの人々にまで普及している現実を象徴する。AIによるコーディング支援が「書ける人が速くなる」段階から「書けない人でも作れる」段階へ移行しつつある。
-
ChatGPT Images 2.0が「馬に乗った宇宙飛行士がペリカンに乗り自転車に乗る」というカオスな画像生成プロンプトに対し、指示にない「WHY ARE YOU LIKE THIS」という看板を自発的に追加した事例は、画像生成AIが文脈的ユーモアを自律的に表現する段階に達していることを示す。モデルの「個性」と予測不可能性が実用上の新たな問いを提起している。
- WHY ARE YOU LIKE THIS — Simon Willison
AI研究・論文
AI研究・論文 最新動向(2026年4月26日)
2026年4月下旬のAI研究領域では、推論効率とメモリ最適化が主要テーマとして浮上している。LLMの実用展開を阻む GPU メモリ制約に対し、kvcached や OpenMementos という異なるアプローチが同時進行しており、スケーラブルな推論インフラへの業界的な注目が高まっている。Google DeepMind の Vision Banana は、GPT スタイルの事前学習をコンピュータビジョンに応用するという大胆な仮説を実証し、視覚 AI の設計思想を刷新しつつある。一方、開発者向けツール領域では GitNexus と Deepgram SDK がそれぞれコード理解とボイス AI の実装障壁を下げており、AI エージェントの実用化を支えるエコシステム層の整備が加速している。
LLM推論効率化とメモリ最適化の最前線
-
kvcached は vLLM 上に構築された動的 KV キャッシュ実装であり、LLM 推論時の GPU メモリを静的割り当てから弾力的割り当てへ転換する。バースト的なリクエスト負荷や複数モデルの GPU 共有シナリオで特に有効であり、インフラコストの実質的な削減につながる
- kvcachedによる弾力的KVキャッシュメモリの実装解説 — MarkTechPost
-
Microsoft の OpenMementos データセットは、LLM の推論トレースを「ブロック」と「メメント」という階層構造で表現し、詳細な思考過程をコンパクトな要約へ圧縮する。このメメント表現がどの程度の圧縮率を達成するかをドメイン横断で計測できる構造になっており、ファインチューニング用データ生成の効率化にも直結する
- Microsoft OpenMementosのトレース構造分析と文脈圧縮の実装解説 — MarkTechPost
-
両アプローチが共通して示すのは「推論コストを下げる戦略の多様化」であり、一方はハードウェア層(GPU メモリ割り当て)、もう一方はデータ層(トレース圧縮)を攻めている点が注目される。コンテキスト長とモデルサイズが拡大し続ける中、このような多層的な効率化手法の組み合わせが実用 LLM サービスの経済性を左右するようになってきている
- kvcachedによる弾力的KVキャッシュメモリの実装解説 — MarkTechPost
- Microsoft OpenMementosのトレース構造分析と文脈圧縮の実装解説 — MarkTechPost
Vision Banana:画像生成事前学習がコンピュータビジョンを再定義
-
Google DeepMind の Vision Banana は、画像生成による事前学習が NLP における GPT スタイルの事前学習と同等の汎化力をコンピュータビジョンにもたらすという仮説を実証した。指示チューニング済みの画像生成モデルとして、複数の視覚タスクを単一アーキテクチャで解く汎用的なアプローチを実現している
-
セグメンテーション性能では SAM 3 を上回り、メトリック深度推定では Depth Anything V3 を超えるベンチマーク結果を示している。これは、生成モデルが認識・計測タスクにおいても専用モデルを凌駕できることを示す重要な実証であり、タスク特化型モデルの存在意義を問い直す
-
この研究が示す設計思想の転換点は「生成能力を認識能力の土台として使う」という逆転的発想にある。従来のコンピュータビジョンパイプラインが識別モデルを中心に設計されてきたのに対し、Vision Banana は生成モデルを出発点とすることで、指示に基づくフレキシブルな視覚処理を実現している
AIエージェント実用化を支える開発者ツール層の整備
-
GitNexus は GitHub スター数 19,000以上 を獲得したオープンソースの MCP ネイティブ知識グラフエンジンであり、Claude Code や Cursor といった AI 支援開発ツールにコードベース全体の構造的認識を与える。「コードを理解せずに編集するエージェント」という実用上の本質的な問題を解決することに特化している
- GitNexus — Claude CodeとCursorにコードベース全体の構造的認識を与えるOSS — MarkTechPost
-
Deepgram Python SDK のチュートリアルは、文字起こし・テキスト読み上げ・非同期音声処理・テキストインテリジェンスを単一 Python 環境に統合する実践的ワークフローを示している。同期・非同期クライアントの両対応により、リアルタイム処理とバッチ処理を使い分けられる柔軟なボイス AI 実装が可能になっている
- Deepgram Python SDKによる文字起こし・TTS・非同期音声処理の実装解説 — MarkTechPost
-
GitNexus と Deepgram SDK が同週に注目を集めた背景には、AIエージェントの「インフラ層」整備への需要増がある。エージェントがコードを自律的に操作するには構造理解が不可欠であり、音声インターフェースを持つエージェントには高品質な音声処理基盤が必要だ。これらのツールは、LLM 能力そのものよりも「エージェントが環境と適切にインタラクトできるか」を底上げするレイヤーを担っている
- GitNexus — Claude CodeとCursorにコードベース全体の構造的認識を与えるOSS — MarkTechPost
- Deepgram Python SDKによる文字起こし・TTS・非同期音声処理の実装解説 — MarkTechPost
Past Reports
- 2026年4月25日 →
- 2026年4月24日 →
- 2026年4月23日 →
- 2026年4月22日 →
- 2026年4月21日 →
- 2026年4月20日 →
- 2026年4月19日 →
- 2026年4月18日 →
- 2026年4月17日 →
- 2026年4月16日 →
- 2026年4月15日 →
- 2026年4月14日 →
- 2026年4月13日 →
- 2026年4月12日 →
- 2026年4月11日 →
- 2026年4月10日 →
- 2026年4月9日 →
- 2026年4月8日 →
- 2026年4月7日 →
- 2026年4月6日 →
- 2026年4月5日 →
- 2026年4月4日 →
- 2026年4月3日 →
- 2026年4月2日 →
- 2026年4月1日 →
- 2026年3月31日 →
- 2026年3月30日 →
- 2026年3月29日 →
- 2026年3月28日 →
- 2026年3月27日 →
- 2026年3月26日 →
- 2026年3月25日 →
- 2026年3月24日 →
- 2026年3月23日 →
- 2026年3月22日 →
- 2026年3月20日 →
- 2026年3月19日 →
- 2026年3月18日 →
- 2026年3月17日 →
- 2026年3月16日 →
- 2026年3月15日 →
- 2026年3月14日 →
- 2026年3月13日 →
- 2026年3月11日 →
- 2026年3月10日 →
- 2026年3月9日 →
- 2026年3月8日 →
- 2026年3月7日 →
- 2026年3月6日 →
- 2026年3月5日 →
- 2026年3月4日 →
- 2026年3月3日 →
- 2026年3月2日 →
- 2026年3月1日 →
- 2026年2月28日 →
- 2026年2月27日 →
- 2026年2月26日 →
- 2026年2月25日 →
- 2026年2月24日 →
- 2026年2月23日 →
- 2026年2月22日 →
- 2026年2月20日 →
- 2026年2月19日 →
- 2026年2月18日 →
- 2026年2月17日 →
- 2026年2月16日 →
- 2026年2月15日 →
- 2026年2月14日 →