Menu
Sign In Search Podcasts Charts People & Topics Add Podcast API Pricing
Podcast Image

株式会社ずんだもん技術室AI放送局

株式会社ずんだもん技術室AI放送局 podcast 20250828

27 Aug 2025

Description

関連リンク NEC、暗黙知をデータ化し学習・活用することでWeb業務を自動化するエージェント技術「cotomi Act」を開発 NECは、私たちが普段インターネットで行う業務をAIが自動でこなす、新しいエージェント技術「cotomi Act(コトミ アクト)」を開発しました。この技術の大きなポイントは、これまでデータ化が難しかった「暗黙知」をAIが学習し、活用できるようになる点です。暗黙知とは、例えば「この状況では、経験上AよりもBの対応が良い」といった、長年の経験や個人の判断によって培われる、マニュアルには書きにくい知識やノウハウのことです。 この「cotomi Act」の性能は、国際的なAIエージェントのベンチマーク(性能評価テスト)である「WebArena」で実証されました。「WebArena」は、ECサイトでの商品購入や情報検索など、実際のWebサイトでの複雑な操作をAIに指示し、どれだけ正確に実行できるかを評価するものです。この難しいテストで、「cotomi Act」を活用したAIエージェントは、人間の平均成功率(78.2%)を上回る80.4%という世界初の記録を達成しました。これは、AIがまるで人間のように、Web上で様々なタスクを高い精度でこなせるようになったことを示す、非常に画期的な成果です。 「cotomi Act」の特長は主に二つあります。一つ目は、専門家がWebブラウザ上で行った操作(クリックや入力、画面遷移など)の記録から、その裏にある判断基準やノウハウといった暗黙知をAIが自動的に読み取り、データとして活用できる形にすることです。これにより、これまで属人化しがちだった「職人の技」のような知識も、AIが学習できるようになります。二つ目は、そうしてデータ化された暗黙知を、NECが開発した生成AI「cotomi」をはじめとする様々な技術と組み合わせて、AIエージェントの能力を飛躍的に向上させる点です。これにより、AIはユーザーからの少し曖昧な指示に対しても、「業務のコンテキスト(背景や状況)」を深く理解し、適切な情報を見つけたり、必要な手続きを自律的に判断・実行できるようになります。結果として、従来のAIでは難しかった、複雑で専門性の高い業務でも、AIが高精度かつ柔軟に対応できるようになるわけです。 日本では労働人口の減少が進んでおり、企業の生産性向上は喫緊の課題です。この「cotomi Act」は、これまで人の手と経験に頼っていた高度な業務をAIが代行できるようになることで、企業の業務効率化やDX(デジタルトランスフォーメーション)を強力に推進します。NECは、この技術をまず自社で活用し、2026年度中のサービス提供を目指しています。私たち新人エンジニアにとっても、AIが業務の頼れるパートナーとなり、より創造的な仕事に集中できるようになる未来が、すぐそこまで来ていることを感じさせる、大変興味深いニュースと言えるでしょう。 引用元: https://jpn.nec.com/press/202508/20250827_02.html 「推論する生成AI」は事前学習されていない課題を正しく推論することができない(共変量シフトに弱い) 最近の生成AIはまるで人間のように推論しているように見えますが、その能力にはまだ限界があることが最新の研究で明らかになりました。この記事では、「思考の連鎖(Chain of Thought: CoT)推論」と呼ばれる、AIが中間的な思考ステップを示すことで推論を改善する技術について、厳密な実験を通してその実態を探った論文を紹介しています。 この研究の大きな目的は、AIが本当に「ゼロから考えている」のか、それとも「過去に覚えたパターンに当てはめているだけ」なのかを調べることでした。特に、AIがまだ見たことのない問題にどれだけ対応できるか(これを「汎化性能」と言います)に注目しています。 実験では、CoT推論の性能に影響しそうな「問題の種類」「文章の長さ」「問題の形式」という3つの要素を特定し、これらを自由に操作できる「DataAlchemy」という特別なデータセットを用意しました。このデータセットを使って、GPT-2ベースのAIモデルを何種類も学習させ、学習時に与えられたデータ(事前学習データ)とテストで使うデータとの「ずれ」(これを「共変量シフト」と呼びます)が、AIの推論性能にどう影響するかを徹底的に調べました。 その結果、事前学習データとテストデータとの「ずれ」(共変量シフト)が大きくなるほど、AIの推論性能は著しく低下することがはっきりと分かりました。具体的には、学習で使わなかった新しい文字が含まれる問題、文章の長さが極端に異なる問題、推論ステップ数が大きく変わる問題、あるいは問題文に少しノイズ(余計な情報)が加わるだけで、AIは正しく推論できなくなってしまうのです。驚くべきことに、AIモデルを大きくしたり、学習方法を工夫したりしても、この傾向は変わりませんでした。これは、AIが真に推論しているわけではなく、過去に見たデータパターンに強く依存していることを示しています。 この研究は、「推論する生成AI」が行っているのは、論理的な思考というよりも、事前学習データに最適化された「洗練されたパターンマッチング」に過ぎないという結論を導き出しています。つまり、人間のように全く新しい概念を理解し、ゼロから推論する能力はまだ持っていないということです。 新人エンジニアの皆さんがAIを活用する際には、この「AIは学習データにないものには弱い」という特性をしっかり理解しておくことがとても重要です。AIの力を最大限に引き出すためには、単に学習データを増やすだけでなく、実際に使うシーンでAIが直面するかもしれない「未知の問題」や「学習データからずれた状況」を想定し、そこでどれだけ正確に機能するかを評価する視点を持つことが大切だという示唆を与えてくれる記事です。 引用元: https://tjo.hatenablog.com/entry/2025/08/27/173000 How to Improve CUDA Kernel Performance with Shared Memory Register Spilling 新人エンジニアの皆さん、GPUを使ったプログラミング(CUDA)のパフォーマンスを向上させる新しい技術、「Shared Memory Register Spilling」について解説します。特に、AI/LLMのような計算量の多い処理では、GPUの性能を最大限に引き出すことが重要です。 GPU上で動くプログラム「CUDAカーネル」は、処理に必要なデータを「レジスタ」という高速なメモリに一時的に置きます。しかし、レジスタの数には限りがあるため、データが多すぎると、余ったデータは「ローカルメモリ」(GPUの外にある少し遅いグローバルメモリの一部)に「スピル」(追い出し)されてしまいます。この「レジスタスピル」が頻繁に起こると、プログラムの実行速度が大きく低下してしまう問題がありました。 CUDA Toolkit 13.0で導入された「Shared Memory Register Spilling」は、この問題を解決する新機能です。これまでは遅いローカルメモリにスピルされていたデータを、GPUチップ上にある高速な「Shared Memory」に優先的に格納できるようになります。Shared Memoryはローカルメモリよりもはるかに高速にアクセスできるため、スピルが発生してもプログラムの性能低下を抑え、むしろ向上させることが期待できます。 この最適化によって得られる主なメリットは、データへのアクセス遅延(レイテンシ)の大幅な削減と、GPUのL2キャッシュへの負担軽減です。実際のテストでは、プログラムの種類によっては5~10%の性能向上が確認されています。 この機能を利用するには、CUDA 13.0以降の環境で、CUDAカーネルのコードに以下の1行を追加するだけです。 asm volatile(".pragma \"enable_smem_spilling\";"); ただし、利用にはいくつかの注意点があります。特に重要なのは、__launch_bounds__(スレッド数)のように、カーネルが同時に起動するスレッドの最大数を明示的に指定することです。これを怠ると、Shared Memoryの割り当てが最適でなくなり、かえってGPUの並列処理能力が低下し、パフォーマンスが悪化する可能性があるので注意しましょう。 レジスタをたくさん使うCUDAカーネルの性能改善を目指す方にとって、このShared Memory Register Spillingは非常に有効な手段です。ぜひ、ご自身のCUDAプログラムに適用して、その効果を試してみてください。GPUの計算をより速く、効率的に行えるようになるはずです。 引用元: https://developer.nvidia.com/blog/how-to-improve-cuda-kernel-performance-with-shared-memory-register-spilling/ お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)

Audio
Featured in this Episode

No persons identified in this episode.

Transcription

This episode hasn't been transcribed yet

Help us prioritize this episode for transcription by upvoting it.

0 upvotes
🗳️ Sign in to Upvote

Popular episodes get transcribed faster

Comments

There are no comments yet.

Please log in to write the first comment.