Menu
Sign In Search Podcasts Charts People & Topics Add Podcast API Pricing
Podcast Image

株式会社ずんだもん技術室AI放送局

株式会社ずんだもん技術室AI放送局 podcast 20250916

15 Sep 2025

Description

youtube版(スライド付き) ※youtube版は9/19まで試験配信中 関連リンク Build a Report Generator AI Agent with NVIDIA Nemotron on OpenRouter このブログ記事は、NVIDIA NemotronとOpenRouterを活用し、自律的にレポートを生成するAIエージェントを構築するワークショップについて解説しています。従来のシステムと異なり、AIエージェントはLLM(大規模言語モデル)を「脳」として使い、状況に応じて自ら判断し、複雑なタスクをこなすことができます。新人エンジニアの皆さんも、最先端のAI開発に触れる良い機会となるでしょう。 ワークショップでは、AIエージェントの核心である以下の4つの要素を実践的に学びます。 モデル: 意思決定の要となるLLM(NVIDIA Nemotronなど)。 ツール: LLMがWeb検索などの外部機能を利用するための手段。 メモリと状態: エージェントが過去の情報や現在の状況を記憶し、行動に活かす仕組み。 ルーティング: エージェントが次に何をすべきかを動的に決定するロジック。 学習環境はNVIDIA Brev Launchableというクラウドベースで提供され、OpenRouterおよびTavilyのAPIキーを設定するだけで、JupyterLab環境でハンズオン形式で学習を進められます。 構築するレポート生成エージェントは、LangGraphとNVIDIA NIM(OpenRouter経由)を基盤とした多段階のアーキテクチャを持ちます。このエージェントは以下のプロセスでレポートを自動作成します。 初期調査: テーマに関する情報を広範囲に収集。 アウトライン計画: 調査結果からレポートの構成を設計。 セクション執筆: 各セクションの詳細な内容を執筆。必要に応じて追加調査も実施。 最終コンパイル: 完成したセクションを統合し、プロフェッショナルなレポートを完成。 エージェントの中核には、NVIDIA NIMが提供する高性能なNemotron Nano 9B V2モデルが使われます。情報収集には、AIエージェント向けに最適化されたTavily検索APIを活用します。 ワークショップでは、特に重要な「リサーチャー」と「オーサー」というコンポーネントの実装を詳細に学びます。 リサーチャー: 「ReAct(Reasoning and Action)」パターンに基づき、思考と行動を繰り返して効率的に情報を収集します。 オーサー: リサーチャーが収集した情報と必要に応じた追加調査を元に、レポートの各セクションを執筆します。 これらのコンポーネントは、LangGraphフレームワークによって統合されます。LangGraphの持つ「条件付きルーティング」機能により、エージェントは複雑なワークフローの中で柔軟かつインテリジェントな意思決定を行い、各ステップを制御します。 このワークショップを通して、皆さんはAIエージェントの基礎から、LangGraphやNVIDIA NIMといった最新のツールを使った実践的な構築スキルまでを習得し、自律的なAIシステムの開発能力を高めることができるでしょう。 引用元: https://developer.nvidia.com/blog/build-a-report-generator-ai-agent-with-nvidia-nemotron-on-openrouter/ New Open Source Qwen3-Next Models Preview Hybrid MoE Architecture Delivering Improved Accuracy and 皆さん、こんにちは!今回は、AIの世界で大きな注目を集めるLLM(大規模言語モデル)に関する新しい発表をご紹介します。中国のAlibabaとNVIDIAが共同で、新しいオープンソースのLLM「Qwen3-Next」モデルを発表しました。このモデルは、AIの性能と効率を大きく向上させる「ハイブリッドMoE(Mixture of Experts)アーキテクチャ」という画期的な技術を取り入れているのが特徴です。 MoEとは、「専門家を組み合わせたモデル」という意味で、簡単に言えば、たくさんのAIの「専門家」の中から、処理する内容に合った「専門家」だけを選んで使う仕組みです。Qwen3-Nextモデルは全体で800億ものパラメータ(AIの知識量を示す数値)を持っていますが、実際に一つの処理に使われるのはわずか30億パラメータだけ。これは、たくさんの知識を持った大規模モデルの「賢さ」と、少ないリソースで動く小規模モデルの「効率性」を両立できるという、とても賢い方法なんです。例えるなら、一つの質問に対して、その分野のプロフェッショナルだけがサッと答えてくれるようなイメージですね。 このモデルは、26万トークンという非常に長いテキストもスムーズに処理できる能力も持っています。これはNVIDIAが開発した「Gated Delta Networks」という技術によって実現されており、長文を読む際に重要な情報を見落とすことなく、効率的に内容を理解することができます。まるで、分厚い専門書でも途中で飽きずに、必要な情報をピンポイントで見つけられるAIのようなものです。 また、NVIDIAの最新GPU(BlackwellやHopper世代)でQwen3-Nextモデルを動かすと、その性能を最大限に引き出すことができます。特にGPU間でデータを高速にやり取りする「NVLink」という技術は、MoEモデルが複数の専門家に処理を振り分ける際の速度を大幅に向上させ、より速い推論を可能にします。NVIDIAのCUDAという開発プラットフォームも、このような新しい複雑なモデルアーキテクチャに柔軟に対応し、最適化された動作をサポートしています。 このQwen3-Nextモデルは、NVIDIAのウェブサイト(build.nvidia.com)でその推論能力を試せるほか、オープンソースのモデルが多数公開されているHugging Faceからもダウンロードできます。さらに、SGLangやvLLMといった推論用のオープンソースフレームワーク、そしてNVIDIAが提供するエンタープライズ向けのサービス「NVIDIA NIM」を使っても、簡単にモデルを展開して利用できます。 この新しいオープンソースLLMの登場は、AI開発の未来にとって大きな前進です。効率的で高性能なAIモデルがより多くのエンジニアに利用されることで、様々な新しいAIアプリケーションが生まれ、技術革新が加速することが期待されます。新人エンジニアの皆さんも、ぜひこの新しい技術に触れて、AIの最前線を体験してみてください。 引用元: https://developer.nvidia.com/blog/new-open-source-qwen3-next-models-preview-hybrid-moe-architecture-delivering-improved-accuracy-and-accelerated-parallel-processing-across-nvidia-platform/ Visual Studio Code、AGENTS.md対応、言語モデルの自動選択機能の追加、拡張機能から言語モデルを提供するAPIを実装 ——Hugging Faceなどの拡張機能からも最新のオープンモデルが使えるように gihyo.jp Visual Studio Code(VS Code)の2025年8月アップデート(バージョン1.104)で、AI活用の機能が大幅に強化されました。特に、LLM(大規模言語モデル)との連携が深まり、日々の開発作業が大きく進化する注目ポイントが満載です。 まず大きな進化は、VS Codeのチャット機能で使える言語モデルの選択肢が大きく広がったことです。「Language Model Chat Provider API」の完成により、Hugging Faceなどの外部サービスが提供する多様なオープンモデルを、VS Codeの拡張機能を通じて利用可能になりました。これにより、皆さんのプロジェクトや用途に合わせ、最新かつ最適なAIモデルを柔軟に選び、活用できるようになります。現時点ではGitHub Copilotの個人プランユーザーが主な対象ですが、AI活用の幅が広がるのは間違いありません。 次に注目すべきは、AIモデルの「自動選択機能(Autoモード)」の導入です。チャットで「Auto」を選ぶと、VS Codeがその時々に最適なモデルを自動で選び、処理してくれます。これにより、どのモデルを使えばいいか迷う必要がなくなり、利用制限(レート制限)を気にせず効率的にAIを活用できるようになります。有料プランのユーザーにはリクエスト割引も適用される予定です。 チームでのAIエージェント活用を助ける「AGENTS.md」への対応も始まりました。これは、プロジェクト特有のルールや文脈をAIエージェントに教えるためのファイルです。これをワークスペースに置いておけば、AIエージェントがプロジェクトの状況を深く理解し、より的確なサポートをしてくれるため、チームでのAI活用がスムーズになるでしょう。 AIエージェントが皆さんの大切なコードを誤って変更しないように、セキュリティ面も強化されました。重要なファイルを編集する前には、エージェントがユーザーに確認を求めるようになり、安心してAIに作業を任せられるようになります。 これらのAI関連機能の他にも、開発の効率を上げる多くの改善が盛り込まれています。例えば、コーディングエージェントへのタスク委任が「TODO」コメントから直接行えるようになったり、ターミナルでのコマンド実行時に自動承認ルールを設定できるようになるなど、細かいながらも日々の作業を快適にするアップデートが満載です。また、チャットでのファイルリスト表示が折りたたまれるようになり、チャットスペースが広がるなど、使い勝手も向上しています。 今回のVS Codeのアップデートは、AIが開発の強力なパートナーとなる未来をさらに加速させてくれます。ぜひ、新しい機能を試して、よりスマートで生産的な開発体験を実感してみてください。 引用元: https://gihyo.jp/article/2025/09/vscode-updates-august-2025 先輩「この前の会議の議事録はどこ?」新人「録音してAIでまとめました」先輩「そか。ちゃんと内容はわかってる?」新人「全然わかんないです」みたいなこと、仕事の現場で起きてそう AIで会議議事録を作成した新人が、内容を理解していなかったという創作話が話題です。AIは業務効率化に役立つ反面、ツールに任せきりでは「業務の本質的な理解」が失われがち。議事録作成の真の目的は情報共有と理解促進。AIを活用する際は、自身で内容を確認し、仕事の意図を把握することが重要です。また、先輩側も新人に業務の目的を明確に伝える必要性が指摘されています。 引用元: https://togetter.com/li/2603058 お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)

Audio
Featured in this Episode

No persons identified in this episode.

Transcription

This episode hasn't been transcribed yet

Help us prioritize this episode for transcription by upvoting it.

0 upvotes
🗳️ Sign in to Upvote

Popular episodes get transcribed faster

Comments

There are no comments yet.

Please log in to write the first comment.