Épisodes

  • Ep.712 Gemini 3始動──“Deep Think”とAntigravityでエージェント時代を押し出す(2025年11月20日配信)
    Nov 19 2025

    グーグルが「Gemini 3」を発表しました。前世代で培ったマルチモーダルと“考える力”、そしてエージェント性を束ね、初日から検索のAIモード、Geminiアプリ、AI StudioとVertex AIで横展開する“同時多面デビュー”。まずは「Gemini 3 Pro」がプレビュー入りし、強化推論モードの「Deep Think」は安全評価ののちにGoogle AI Ultra向けへ段階展開するという慎重な立ち上げです。


    性能は数字で押してきました。Gemini 3 ProはLMArenaでElo 1501を記録し、MMMU-Pro 81%、Video-MMMU 87.6%、SimpleQA Verified 72.1%と発表。数学や科学領域の信頼度を底上げした、と位置づけます。Deep ThinkではHumanity’s Last Exam 41.0%、GPQA Diamond 93.8%、ARC-AGI-2で45.1%(コード実行あり、ARC Prize Verified)と、難関系での一段高いスコアを提示しました。


    “使いどころ”は三本柱で語られます。学ぶでは、テキスト・画像・動画・音声・コードをまたいだ統合理解に100万トークンの長文脈を組み合わせ、論文や長尺講義の要点化から可視化コード生成まで一気通貫。作るでは、WebDev ArenaでElo 1487、Terminal-Bench 2.0で54.2%、SWE-bench Verifiedで76.2%を示し、ゼロショットからの“Vibe Coding”でリッチなUIや3D表現を素早く形に。計画するでは、Vending-Bench 2で首位となり、長期の見通しと道具の使い方が乱れにくい“段取り力”をアピールしています。


    開発体験も大きく更新されました。新発表の「Google Antigravity」は、エージェントをIDEの“主役”へ引き上げ、エディタ/ターミナル/ブラウザへの直接アクセスで、仕様策定から実装・検証までを半自動で回す設計です。併せて、ブラウザ制御のComputer Use(Gemini 2.5系)や画像編集モデル「Nano Banana」と密結合し、端から端までのエージェント・ワークフローを提示。API側でも“thinking level”“media resolution”“thought signatures”といったパラメータを追加し、マルチターンで推論状態を安定保持する工夫が入っています。


    提供・料金の現実感も押さえられています。開発者向けのGemini 3 Proは、20万トークン以下のプロンプトで入力$2/百万トークン、出力$12/百万トークンのプレビュー価格を提示。AI Studioではレート制限付きで無料試用の導線も確保され、企業向けにはVertex AIとGemini Enterpriseでの配備を推奨する構図です。さらに“URLコンテキスト”“検索グラウンディング”“クライアント/サーバーのBashツール”など、実務のエージェント開発を押し上げる機能群が同時投入されました。


    安全面では、Frontier Safety Frameworkにもとづく内製評価に加えて、英国AISIなどの外部機関やApollo、Vaultis、Dreadnodeといった専門家の独立評価を受けたと説明。シンパシー(迎合)的な出力の抑制、プロンプトインジェクション耐性、サイバー濫用への防御を強化した“最もセキュアなGemini”を掲げています。


    総じて、Gemini 3は“長い文脈×道具の一貫使用×現実的なAPI更新”で、生成AIを“相棒”から“実行役”へ前進させる動きです。SIやプロダクトの現場では、Deep Thinkで精度を取りにいく場面と、通常プロでスループットを出す場面を切り分け、AntigravityやCLI、Vertex AIの管理枠で権限と監査を設計。費用は入出力のバランスと長文脈の活用度合いで効いてくるため、提示価格と自社のタスク粒度を照らし合わせて“1件あたりの原価”を先に見える化しておくのが、明日からの実務の第一歩になりそうです。

    Voir plus Voir moins
    4 min
  • Ep.711 Anthropic×Microsoft×NVIDIA──“1GW×$30B”で広がるクラウド三極時代(2025年11月20日配信)
    Nov 19 2025

    Anthropic、Microsoft、NVIDIAの3社が包括提携を発表しました。柱は三つ。第一に、AnthropicがAzure上でClaudeの大規模提供を拡張し、300億ドル相当の計算資源を購入、加えて最大1ギガワットの追加計算キャパシティを契約できる枠組みを設定。第二に、NVIDIAとはモデル側とGPU側の“両面最適化”に踏み込み、Grace BlackwellやVera Rubin世代で性能・効率・TCOを詰める。第三に、NVIDIAが最大100億ドル、Microsoftが最大50億ドルをAnthropicへ投資するという資本面の連携です。発表では、Amazonが“主要クラウド&学習パートナー”であり続けることも明記され、ClaudeはAWS・Google・Azureの三極で動く唯一のフロンティアモデルだと位置づけられました。


    企業向けの提供面では、Microsoft FoundryでClaude Sonnet 4.5、Haiku 4.5、Opus 4.1の公開プレビューが開始され、Azure上で本番エージェントや業務アプリを構築できる体制が整います。さらにMicrosoft 365 Copilot、GitHub Copilot、Copilot StudioにおけるClaudeの継続提供が案内され、Azureの顧客が“用途に応じてClaudeを選ぶ”道が太くなりました。


    今回の合意は資金と電力の“両にらみ”でも象徴的です。公的報道でも、Azure向け300億ドルコミットと、NVIDIA/ Microsoftの最大150億ドル出資が確認され、初期の1GW規模をNVIDIAの最新アーキテクチャで受け止める構図が描かれています。生成AIのボトルネックがGPUそのものから“電力×供給確実性”へ移る中、クラウド三極それぞれにClaudeの“足場”を築いておく戦略的意図がにじみます。


    文脈として、Anthropicは直前に米国内のAIインフラへ500億ドルの投資計画も打ち出しました。今回の“Azure×NVIDIA”と地場のデータセンター投資は表裏一体で、需要の伸びを自社主導の計算基盤で吸収しつつ、マルチクラウドでの到達性と信頼性を確保する一連の布石と捉えられます。


    日本企業の実務に引き寄せれば、三つの利点が見えます。第一に、調達多様化――ClaudeをAWS/Google/Azureいずれの既存基盤にもはめ込めるため、プロキュアメントリスクを下げやすい。第二に、性能とTCOの両立――Grace Blackwell/Vera Rubin最適化の進展は、推論の遅延・コスト面の改善に直結する可能性が高い。第三に、業務統合の容易さ――FoundryやM365 Copilotの経路で、既存のID・権限・ガバナンスに沿って“Claudeを社内に入れる”導線が用意されたことです。今後は、SLAやデータ所在地、推論の費用対効果を“クラウド横断”で比較評価し、案件ごとに最適配置を選ぶ設計が要になってきます。

    Voir plus Voir moins
    4 min
  • Ep.710 NTT×OptQC、2030年へ──“光”でつくる100万量子ビット計画(2025年11月20日配信)
    Nov 19 2025

    NTTと東大発のOptQCが、実用レベルの光量子コンピュータ実現に向けた連携協定を結びました。目標は2030年までに“100万量子ビット”規模のスケーラビリティと、数千の論理量子ビットを安定生成できる誤り耐性の確立。通信の世界で磨いた光増幅や光多重化、通信起源の誤り訂正の知見を量子へ総動員し、常温・常圧で動く低消費電力の“光方式”を社会実装へ押し上げる構図です。発表文は、まず5年間の共同検討で技術・ユースケース・サプライチェーン・社会実装までを一体で詰めると明記しています。


    連携の柱は四つ。量子向けの多重化・誤り訂正技術の創出、ユースケースやアルゴリズム/ソフトの開発、サプライチェーン設計、そして社会実装です。初年度は技術検討とパートナー連携、2年目に開発環境、3年目にユースケース検証という実務的な足並みも示されました。NTTはIOWNで育てた光技術群を量子へ適用済みで、量子光源では“従来の1000倍以上”の高速生成を実証済みとし、OptQCはNEDOの「1万量子ビット」開発プロジェクトを推進中と背景を説明しています。


    英語版のリリースでも“By 2030, one million qubits”を打ち出し、用途は創薬、材料設計、金融最適化、気候予測などの計算集約領域を想定。スケーラビリティ(数を増やす)と信頼性(誤りに強い)を同時に狙う“通信×量子”の掛け算が、実用への近道だと強調します。国内外の配信では同趣旨が反復され、NTTの島田明社長は「2030年に世界トップレベル」と語った旨の国内報道も並びました。


    ここで少しだけ噛み砕きます。光方式は“冷やしこまず”“強い電力を注ぎ込まず”に大規模化できるのが魅力。一方で、100万というのは物理量子ビットの話で、実用計算を支える“論理量子ビット”を安定運用するには、誤り訂正と配線・光源・検出の全体設計が要です。今回の協定が“技術だけでなくサプライチェーンと社会実装まで含める”と踏み込んだのは、この総合設計を外さないための布陣、と読み解けます。


    日本の産業界への射程も見えてきます。発表文は、創薬・材料・金融・気候の高負荷タスクを主要ターゲットに掲げました。いわば“AI×HPCの外側”にある、量子が得意な探索・サンプリング・量子系シミュレーション領域。2030年を視野に、従来のGPUクラスターと量子アクセラレーションをどう棲み分けるか、どの工程で“量子に渡すと速い/省エネ”かを企業側が先回りで設計できるかが、勝負所になります。NTTとOptQCは今後5年間でユースケースの共同検証を進めるとし、外部パートナーの受け入れも明記しました。


    最後に位置づけです。2024年の「汎用型光量子計算プラットフォーム」始動、2025年1月の“1000倍速”量子相関生成という前史が今回の協定を下支えしています。通信インフラ企業が“光の作法”をそのまま量子へ持ち込むことで、量子の量産化・標準化の道筋が現実味を帯びてきました。2030年のゴールが“看板”であると同時に、年次マイルストンを刻む工程表が示された――日本発の量子ロードマップとして、実務家にとって追いかけやすい一歩です。

    Voir plus Voir moins
    5 min
  • Ep.709 中国の“光量子チップ”、GPUの1000倍?──CHIPXの主張と現実(2025年11月20日配信)
    Nov 19 2025

    中国メディアの報道を起点に、CHIPXとTuring Quantumが開発した“産業グレードのスケーラブル光量子チップ”が話題です。South China Morning Postは、この6インチ薄膜リチウムニオベートのフォトニック量子チップが、AIデータセンターやスーパーコンピュータ向けに“古典機の限界を超える計算支援”を提供し、航空宇宙やバイオ、金融で既に活用が始まっていると伝えました。共同開発者の金賢敏氏は、光と電子の共同パッケージング、チップレベル統合、ウエハースケール量産を「世界初」と強調しています。


    一方で英語圏ではTom’s Hardwareが、同件の最大の見出しとして「AIタスクでNVIDIA GPUの1000倍」という主張を引用。チップ上の光学コンポーネントは1000点超、モノリシック設計でコンパクト、据付は“従来量子機の半年”に対して“2週間”とされ、将来はチップ同士を束ねて“100万キュービット規模”へ容易にスケール可能だといった説明も紹介しました。もっとも、記事は量産面の課題にも触れており、生産能力は年1.2万ウエハー、1枚あたり約350個のチップという低い歩留まり水準が足かせになっているとしています。


    技術的な文脈を踏まえると、“1000倍”は条件付きの比較とみるのが妥当です。フォトニック量子は、特定の組合せ最適化や線形代数に類する構造化問題では理論上の優位を得やすい一方、一般目的のLLM推論や学習を丸ごと置き換える段階にはありません。今回の公表でも、ベンチマーク条件や問題設定、誤り訂正の前提は限定的で、独立検証はこれから。さらに、光量子機の“スケール=実用”には、安定した光源・検出・ルーティングと誤り耐性の確立が不可欠で、ここは各方式共通の未踏域です。したがって、現時点では“用途特化の高速アクセラレータ候補が登場”という受け止めが現実的でしょう。


    産業面での意味合いは二つ。第一に、光×電子の共同パッケージングを前提にした“量子的アクセラレータ”の実装競争が本格化する兆しです。NVIDIA自身もシリコンフォトニクスやコパッケージドオプティクスへの投資を強めており、古典GPUクラスタの省電力・高速通信の延長線で、量子的要素を取り込む可能性は十分にあります。第二に、量産と品質の壁。報道の通りの歩留まりだと、供給はニッチかつ高価になりやすい。量子・光学の装置産業化は“チップをたくさん作れるか”が勝負どころで、ここがクリアできるかが数年スパンの見極めポイントです。


    日本の開発・投資の現場に引き付けるなら、当面は“共同パッケージング技術のキャッチアップ”と“量子風アクセラレーションの適用領域見極め”が肝になります。既存のGPU/HPCワークロードの一部(組合せ最適化、サンプリング、特定の線形演算)で“代替・併用”できるかを試す価値はありますが、LLM推論の全面置換のような期待は慎重に。まずはパイロットで用途特化のKPIを設定し、実データでの再現性とコストを丁寧に検証していくのが良さそうです。

    Voir plus Voir moins
    5 min
  • Ep.708 CloudflareがReplicateを迎え入れ──“AIクラウド”を開く5万モデルの扉(2025年11月20日配信)
    Nov 19 2025

    ReplicateがCloudflareに“合流”します。発表は2025年11月17日付。Replicateは独立ブランドを維持し、既存APIはそのまま稼働、CloudflareのDeveloper Platformと深くつながることで「速く、強く」なる――と両社は位置づけました。モデル実行という低レイヤの抽象化を担うReplicateと、エッジに広がるCloudflareの実行基盤が一体化し、“ネットワークこそコンピュータ”の設計をAI時代に拡張する狙いです。


    統合の目玉は、Replicateの5万超モデルをWorkers AIへ持ち込む計画です。これにより、開発者はReplicateの柔軟な環境でも、CloudflareのサーバーレスGPUでも、同じハブから選んで動かせるようになります。さらに、Replicateのノウハウを用いてWorkers AIにファインチューニング機能と“持ち込みモデル”(BYO)対応を実装。実行はWorkers、状態はDurable Objects、結果保存はR2、特徴量はVectorize、運用はAI Gateway――という具合に、推論から配布・監視までを一枚の操作盤に収める青写真が示されました。


    開発者への影響は即効性があります。Replicate側は「APIは変えない。今日動いているものは明日も動く」としつつ、Cloudflareのグローバルネットワークでレイテンシと信頼性が底上げされると説明。Workers AIユーザーには、モデルの品揃えが一気に拡張され、微調整や自前モデルの配備が容易になる見込みです。取引は通常のクロージング条件を前提に進み、数か月内の完了見通しが報じられています。


    文脈を少し添えると、これは“AIクラウド”の主導権争いにおけるインフラ×モデル流通の縦横統合です。GPUの配備だけでなく、モデル探索・実験・微調整・本番運用までの往復を短くすることが、生成AIの“実務化”を決めます。Replicateが築いたコミュニティとカタログ、Cloudflareのエッジ推論と開発者体験。この合体は、エージェントやリアルタイム生成、A/Bで磨く業務ワークフローの“回転数”を上げ、SIやプロダクトの現場で“作って出す”までの距離をぐっと縮めるはずです。

    Voir plus Voir moins
    3 min
  • Ep.707 Grok 4.1──“感情もわかる相棒”を目指すxAIの最新モデル(2025年11月20日配信)
    Nov 19 2025

    xAIは最新モデル「Grok 4.1」を公開し、grok.comおよびX、iOS/Androidアプリで順次有効化しました。既定ではAutoモードで配信され、モデルピッカーから“Grok 4.1”を明示選択できます。位置づけは“実利用のしやすさ”の強化で、創造性・感情理解・協調的対話の質を引き上げつつ、従来の知性や信頼性は維持したと述べています。


    品質検証は11月1日から14日までのサイレント・ロールアウトで実施。本番トラフィック上でブラインドのペア比較を回し、直前の本番モデルに対して64.78%の割合で4.1が好まれた、と社内計測を開示しました。


    外部可視の指標としては、LMArenaのText Arenaで“Thinking”モードがElo 1483で全体1位、“Non-Reasoning”モードも1465で2位と主張。非推論の高速モードが他社の思考モードを上回る、ともアピールしています(思考モード=コード名quasarflux/高速モード=tensor)。ベンチマーク値は公開リーダーボード準拠で算出したと説明されました。


    “感情面の受け止め”は今回の見せ場です。EQ-Bench3での評価プロトコルや採点者(Claude Sonnet 3.7をジャッジに指定)を明示し、悲嘆への応答例などを掲載。単なる共感フレーズに終わらず、状況を咀嚼して寄り添う語り口に改善した、としています。


    事実性の面では、特に高速(非推論)モードで検索ツール併用時の“誤情報率”低減を狙ったポストトレーニングを実施し、実トラフィック由来の情報探索プロンプトで有意な低下を観測したと報告。外部報道は「従来比3分の1まで低下」とxAIの主張を紹介しています。社内評価ではFActScoreでも改善傾向が示されたと記載されました。


    運用視点では、Grok 4.1は“即答が欲しい場面はNon-Reasoning、腰を据える課題はThinking”という二段構えを前提に、Autoモードで自動出し分ける設計。xAIは4系で確立した大規模RL基盤を使い、スタイルやパーソナリティ、整合性を“報酬モデル化”して大量の自動評価ループで磨いたと説明しており、4.1はその延長線上にある進化版という位置づけです。


    最後に背景を一言。xAIはGrok 3/4の段階から“推論強化”を看板に競争を仕掛けてきました。4.1はその路線に“感情・創作・協調”の色を濃く足し、日常の会話体験やブランドの声に寄り添う方向へ舵を切った印象です。顧客接点や社内アシスタントへの適用では、感情理解の“効き”と事実性のバランスをどう設計するか――ここが実装の腕の見せ所になりそうですね。

    Voir plus Voir moins
    4 min
  • Ep.706 WeatherNext 2始動──“1時間解像度×確率予報”をGoogleが製品群に実装(2025年11月20日配信)
    Nov 19 2025

    Google DeepMindとGoogle Researchが、AI気象モデルの最新版「WeatherNext 2」を発表しました。最大1時間解像度の予報を、単一のTPUで“1分未満”に近い時間で数百シナリオまとめて生成。先代モデル比で「変数×リードタイムの99.9%で上回った」とし、検索、Gemini、Pixelの天気、Maps PlatformのWeather APIなどGoogleの主要プロダクトに順次反映されます。地図アプリの天気も今後この技術で強化される、としています。


    技術の肝はFGN、Functional Generative Networkです。訓練は“各地点・各変数の単独分布(marginals)”だけを相手にしながら、推論時には関数空間にノイズを入れて“全体の連動(joints)”を保った確率予報を吐き出すつくり。評価指標はCRPSで、従来法や同社のGenCastを上回る性能を示したと論文は述べます。初期化は6時間ごと×1日4回で、実用に向けて時々刻々の意思決定を支える時間粒度も確保しました。


    “ラボの外へ”もポイントです。予報データはEarth EngineとBigQueryで提供され、独自アプリ向けにはVertex AIの早期アクセスでカスタム推論が可能に。これまで実験的に公開してきたサイクロン進路などの確率予報も土台は同じで、最悪ケースを含む“幅”を短時間で出せる仕組みが整いました。


    産業界の文脈では、欧州中期予報センター(ECMWF)がAI版アンサンブル「AIFS ENS」を2025年7月に運用開始するなど、公的機関もAI気象の実装段階に入っています。学術面でも各社の確率モデルがCRPSなどで競い合う局面で、FGNは“関数空間ノイズ×深層アンサンブル”という構成で先頭集団に食い込んだ格好です。


    実務への効きどころを一緒に描いてみましょう。航空なら航路最適化や乱気流回避、エネルギーなら風力発電の出力見積もり、ロジスティクスなら港湾・陸送のスケジューリング――いずれも“単一予報”より“分布”が欲しい領域です。WeatherNext技術はGoogleのWeather APIにも入ってきており、開発者は地図や位置情報と組み合わせた“確率ベースのUX”を設計できます。社内のデータ基盤に載せるなら、BigQueryに時系列で取り込み、需要予測や在庫計画の特徴量に重ねる、といった使い方が現実的です。

    Voir plus Voir moins
    3 min
  • Ep.705 Meta、社員評価に“AI駆動インパクト”──2026年本格導入、今年はAIで評価文書作成も(2025年11月20日配信)
    Nov 19 2025

    Metaは2026年から社員評価に「AI駆動インパクト」を本格導入し、AIを使って成果を出した度合いを中核期待値として扱う方針です。2025年の年次評価ではAI活用メトリクス自体は正式指標に含めない一方、自己評価には“AIで得た勝ち”を記載するよう促し、12月8日開始の評価サイクルに合わせて「AI Performance Assistant」を展開。評価文書の作成には社内ボットのMetamateやGoogleのGeminiも使えるとしています。


    同社は既に、採用面接でのAI利用容認や、社内ゲーム「Level Up」でAI活用を促すなど、人と仕事のプロセスを“AI前提”へ寄せてきました。今回の人事制度アップデートはその延長線上にあり、評価のコアへAIを据える動きが一段と明確になった格好です。


    潮流は業界横断です。マイクロソフトは「AIの活用はもはや任意ではない」とし、管理職に評価でのAI活用確認を求める通達を出しました。グーグルも全社集会でピチャイCEOが「リードするには社員がAIを使う必要がある」と発言。大手各社で“AI運転免許”が事実上の必須スキルになりつつあります。


    一方、実装には注意点もあります。Metaの社内ボットMetamateで自己評価や同僚レビューを下書きする運用は広がる一方で、文脈理解の甘さや“テンプレ化”への懸念も社員から上がっています。評価業務の効率化と、公平性・説明責任の担保をどう両立するかが、マネージャーの腕の見せ所になりそうです。

    Voir plus Voir moins
    3 min