論文の概要: Why do AI agents communicate in human language?
- arxiv url: http://arxiv.org/abs/2506.02739v1
- Date: Tue, 03 Jun 2025 10:53:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.598077
- Title: Why do AI agents communicate in human language?
- Title(参考訳): なぜAIエージェントは人間の言語でコミュニケーションするのか?
- Authors: Pengcheng Zhou, Yinglun Feng, Halimulati Julaiti, Zhongliang Yang,
- Abstract要約: 大規模言語モデル(LLM)は、現代のAIエージェントシステムの基礎となっている。
ほとんどの既存のシステムでは、エージェント間通信は主に自然言語に依存している。
この設計はエージェントとエージェントの協調に基本的な制限をもたらすと我々は主張する。
- 参考スコア(独自算出の注目度): 6.784986834853486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have become foundational to modern AI agent systems, enabling autonomous agents to reason and plan. In most existing systems, inter-agent communication relies primarily on natural language. While this design supports interpretability and human oversight, we argue that it introduces fundamental limitations in agent-to-agent coordination. The semantic space of natural language is structurally misaligned with the high-dimensional vector spaces in which LLMs operate, resulting in information loss and behavioral drift. Beyond surface-level inefficiencies, we highlight a deeper architectural limitation: current LLMs were not trained with the objective of supporting agentic behavior. As such, they lack mechanisms for modeling role continuity, task boundaries, and multi-agent dependencies. The standard next-token prediction paradigm fails to support the structural alignment required for robust, scalable agent coordination. Based on this, we argue that two core questions deserve careful examination: first, given that AI agents fundamentally operate in high-dimensional vector spaces, should they rely on a language system originally designed for human cognition as their communication medium? Second, should we consider developing a new model construction paradigm that builds models from the ground up to natively support structured communication, shared intentionality, and task alignment in multi-role, multi-agent environments? This paper calls for a reconsideration not only of how agents should communicate, but also of what it fundamentally means to train a model that natively supports multi-agent coordination and communication.
- Abstract(参考訳): 大規模言語モデル(LLM)は現代のAIエージェントシステムの基礎となり、自律的なエージェントの推論と計画を可能にしている。
ほとんどの既存のシステムでは、エージェント間通信は主に自然言語に依存している。
この設計は、解釈可能性と人間の監視をサポートするが、エージェントとエージェントの協調に基本的な制限をもたらすと論じる。
自然言語の意味空間は、LLMが動作する高次元ベクトル空間と構造的に不一致であり、情報損失と行動ドリフトをもたらす。
表面レベルの非効率性以外にも、より深いアーキテクチャ上の制限を強調します。
そのため、ロール継続性、タスク境界、マルチエージェント依存関係をモデル化するメカニズムが欠如している。
標準的な次世代予測パラダイムは、堅牢でスケーラブルなエージェント調整に必要な構造的アライメントをサポートしない。
第一に、AIエージェントが高次元ベクトル空間で基本的に機能していることを考えると、それらはもともと人間の認知をコミュニケーション媒体として設計した言語システムに依存するべきだろうか?
第二に、構造化コミュニケーション、共有意図、タスクアライメントをネイティブにサポートするために、ゼロからモデルを構築する新しいモデル構築パラダイムを開発するべきか。
本稿では,エージェントのコミュニケーション方法だけでなく,マルチエージェントのコーディネーションとコミュニケーションをネイティブにサポートするモデルを学習することの基本的な意味についても再考する。
関連論文リスト
- Small Language Models are the Future of Agentic AI [24.712103135486984]
スモールランゲージモデル(SLM)は十分に強力であり、本質的にはより適しており、エージェントシステムにおける多くの呼び出しに対して経済的である。
本稿では,エージェントシステムにおけるSLM導入の潜在的な障壁について論じ,汎用LLM-to-SLMエージェント変換アルゴリズムの概要を述べる。
論文 参考訳(メタデータ) (2025-06-02T18:35:16Z) - Agentic AI and Multiagentic: Are We Reinventing the Wheel? [0.0]
AI Agenticという言葉は、基本的にAIエージェントのバズワードとしてよく使われ、AI Multiagenticはマルチエージェントシステムのバズワードとして使われる。
この混乱は、自律エージェントとマルチエージェントシステムの分野における数十年の研究を見落としている。
この論文は、科学と技術に関する厳密さと、AIにおける最先端技術から確立された用語の使用を提唱している。
論文 参考訳(メタデータ) (2025-06-02T09:19:11Z) - VQEL: Enabling Self-Developed Symbolic Language in Agents through Vector Quantization in Emergent Language Games [2.9948666437769713]
VQELは、ベクトル量子化をエージェントのアーキテクチャに組み込む新しい方法である。
これにより、セルフプレイの参照ゲームにおいて、個別のシンボル表現を自律的に発明し、開発することができる。
実験の結果, VQELは従来のREINFORCE法に勝るだけでなく, 制御性の向上や, 崩壊に対する感受性の低下による効果も示された。
論文 参考訳(メタデータ) (2025-03-06T20:15:51Z) - Two Heads Are Better Than One: Collaborative LLM Embodied Agents for Human-Robot Interaction [1.6574413179773757]
大規模言語モデル(LLM)は、自然言語コマンドを解釈するために、その膨大な理解を活用できなければならない。
しかし、これらのモデルは幻覚に悩まされ、安全上の問題やタスクからの逸脱を引き起こす可能性がある。
本研究では、一つの独立したAIエージェントに対して複数のコラボレーティブAIシステムがテストされ、他のドメインの成功が人間とロボットのインタラクション性能の改善につながるかどうかを判定した。
論文 参考訳(メタデータ) (2024-11-23T02:47:12Z) - Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - Agents: An Open-source Framework for Autonomous Language Agents [98.91085725608917]
我々は、言語エージェントを人工知能への有望な方向と見なしている。
Agentsはオープンソースライブラリで、これらの進歩を広く非専門的な聴衆に開放することを目的としています。
論文 参考訳(メタデータ) (2023-09-14T17:18:25Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Cognitive Architectures for Language Agents [44.89258267600489]
言語エージェントのための認知アーキテクチャ(CoALA)を提案する。
CoALAはモジュラーメモリコンポーネントを備えた言語エージェント、内部メモリと外部環境と相互作用する構造化されたアクションスペース、アクションを選択するための一般的な意思決定プロセスを記述する。
我々は、CoALAを使用して、振り返りによる調査と、最近の多くの作業の組織化を行い、より有能なエージェントに対する行動可能な方向を前向きに特定します。
論文 参考訳(メタデータ) (2023-09-05T17:56:20Z) - Networked Multi-Agent Reinforcement Learning with Emergent Communication [18.47483427884452]
MARL(Multi-Agent Reinforcement Learning)法は,他の学習エージェントの存在下で活動するエージェントに対して最適なポリシーを求める。
コーディネートするひとつの方法は、相互通信を学ぶことです。
エージェントは共通のタスクを実行するために学習しながら言語を開発することができるか?
論文 参考訳(メタデータ) (2020-04-06T16:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。