論文の概要: AI Mother Tongue: Self-Emergent Communication in MARL via Endogenous Symbol Systems
- arxiv url: http://arxiv.org/abs/2507.10566v1
- Date: Mon, 07 Jul 2025 09:52:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.725577
- Title: AI Mother Tongue: Self-Emergent Communication in MARL via Endogenous Symbol Systems
- Title(参考訳): AIマザートング : 内因性シンボルシステムによるMARLにおけるセルフエマージェントコミュニケーション
- Authors: Hung Ming Liu,
- Abstract要約: エージェントが内因性記号系を持つ場合、その神経表現は自然に自発的な意味的圧縮とナッシュ平衡による意味的収束を示す。
この発見は、象徴主義と接続主義を橋渡しするための新しい道を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Decentralized Multi-Agent Reinforcement Learning (MARL), the development of Emergent Communication has long been constrained by the ``Joint Exploration Dilemma'', leading agents to fall into a ``Communication Vacuum Equilibrium'' . Traditional methods address this by introducing inductive biases to facilitate communication emergence . This study fundamentally questions whether such artificial inductive biases are, in fact, over-engineering. Through experiments with the ``AI Mother Tongue'' (AIM) framework, based on a Vector Quantized Variational Autoencoder (VQ-VAE), we demonstrate that when agents possess an endogenous symbol system, their neural representations naturally exhibit spontaneous semantic compression and Nash equilibrium-driven semantic convergence, achieving effective symbolic communication without external inductive biases. This aligns with recent neuroscience findings suggesting that the human brain does not directly use human language for internal thought , and resonates with research on ``soft thinking'' capabilities in Large Language Models (LLMs) . Compared to traditional explicit communication methods, AIM demonstrates stronger generality and efficiency. The interpretable analysis toolkit developed in this study confirms that symbol usage exhibits a significant power-law distribution, leading to three major theoretical insights: the ``Neural Communication Hypothesis'', the ``Tool-First Principle'', and the ``Semantic Interpretability Paradigm''. Future research will explore the integration of Hierarchical Quantized Variational Autoencoders (HQ-VAE) to enhance AIM's complex expressive capabilities and investigate the potential for ``Reinforcement Learning (RL) Low-Level Pre-training''. This discovery offers new avenues for bridging symbolism and connectionism.
- Abstract(参考訳): 分散マルチエージェント強化学習(MARL)において、創発的コミュニケーションの開発は、長い間「共同探索ジレンマ」によって制約されてきた。
従来の方法は、コミュニケーションの出現を促進するために誘導バイアスを導入することで、この問題に対処する。
この研究は、そのような人工的帰納バイアスがオーバーエンジニアリングであるかどうかを根本的に疑問視する。
ベクトル量子化変分オートエンコーダ(VQ-VAE)に基づく「AIM(AI Mother Tongue)」フレームワークを用いた実験により、エージェントが内在的シンボルシステムを持っている場合、その神経表現は自然に自発的な意味的圧縮とナッシュ平衡による意味的収束を示し、外部帰納的バイアスを伴わない効果的な記号的コミュニケーションを実現することを示した。
これは、人間の脳が人間の言語を直接内部思考に用いていないことを示唆する最近の神経科学の知見と一致し、大規模言語モデル(LLM)における「ソフト思考」能力の研究と調和している。
従来の明示的なコミュニケーション手法と比較して、AIMはより強い汎用性と効率を示す。
本研究で開発された解釈可能な解析ツールキットは,記号の使用が有意な力量分布を示すことを確認し,「ニューラルコミュニケーション仮説」,「ツールファースト原則」,「セマンティック解釈可能性パラダイム」の3つの主要な理論的洞察を導いた。
今後の研究は、AIMの複雑な表現能力を高めるために、階層型量子変分オートエンコーダ(HQ-VAE)の統合を検討し、'強化学習(RL)低レベル事前学習'の可能性を検討する。
この発見は、象徴主義と接続主義を橋渡しするための新しい道を提供する。
関連論文リスト
- Boosting Neural Language Inference via Cascaded Interactive Reasoning [38.125341836302525]
自然言語推論(NLI)は、与えられた前提と仮説の間の論理的関係の確認に焦点を当てている。
この課題は、多様な言い回し、意味的複雑さ、文脈的ニュアンスといった固有の言語的特徴により、重大な課題を提起する。
NLIにおける深い意味理解のために設計された新しいアーキテクチャであるCascaded Interactive Reasoning Network (CIRN)を紹介する。
論文 参考訳(メタデータ) (2025-05-10T11:37:15Z) - Simulating the Emergence of Differential Case Marking with Communicating Neural-Network Agents [2.184775414778289]
ディファレンシャル・ケースマーキング(英: Differential Case Marking、DCM)は、文法的ケースマーキングが意味、実用的、その他の要因に基づいて選択的に適用される現象である。
本研究では, エージェントがまず人工言語を習得し, コミュニケーションを行うための枠組みを提案する。
言語やセマンティックな嗜好を事前に経験していない,非常に汎用的なコミュニケーション最適化アルゴリズムとニューラルネットワーク学習者を用いて,学習だけではDCMに結びつかないことを示す。
論文 参考訳(メタデータ) (2025-02-06T13:00:53Z) - Large Language Models as Theory of Mind Aware Generative Agents with Counterfactual Reflection [31.38516078163367]
ToM-agentは、オープンドメインの会話相互作用において、LLMベースの生成エージェントがToMをシミュレートできるように設計されている。
ToM-Adntは、精神状態に対するエージェントの認識のエミュレーションを促進するため、精神状態からの信頼を解き放つ。
以上の結果から,ToM-agentは,意味的情緒的支援や意思決定に限らず,相手の行動の根底にある要因を把握できることが示唆された。
論文 参考訳(メタデータ) (2025-01-26T00:32:38Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Exploring the LLM Journey from Cognition to Expression with Linear Representations [10.92882688742428]
本稿では,大規模言語モデル(LLM)における認知的・表現的能力の進化と相互作用について,詳細な検討を行う。
人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)の3つの重要なフェーズにまたがる線形表現を通して、モデルの認知的・表現的能力を定義し、探求する。
SFT, RLHFでは, 認知能力が発達する傾向がみられ, 認知能力が発達する傾向がみられた。
論文 参考訳(メタデータ) (2024-05-27T08:57:04Z) - Exchange-of-Thought: Enhancing Large Language Model Capabilities through
Cross-Model Communication [76.04373033082948]
大規模言語モデル(LLM)は、最近、Chain-of-Thoughtテクニックによる複雑な推論タスクにおいて大きな進歩を遂げました。
本稿では,問題解決時のクロスモデル通信を可能にする新しいフレームワークであるExchange-of-Thought (EoT)を提案する。
論文 参考訳(メタデータ) (2023-12-04T11:53:56Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Neuro-Symbolic Causal Reasoning Meets Signaling Game for Emergent
Semantic Communications [71.63189900803623]
創発的SCシステムフレームワークを提案し,創発的言語設計のためのシグナリングゲームと因果推論のためのニューロシンボリック(NeSy)人工知能(AI)アプローチで構成されている。
ESCシステムは、意味情報、信頼性、歪み、類似性の新たな指標を強化するように設計されている。
論文 参考訳(メタデータ) (2022-10-21T15:33:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。