論文の概要: Emergent Communication for Rules Reasoning
- arxiv url: http://arxiv.org/abs/2311.04474v1
- Date: Wed, 8 Nov 2023 05:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 17:07:28.399997
- Title: Emergent Communication for Rules Reasoning
- Title(参考訳): 規則推論のための創発的コミュニケーション
- Authors: Yuxuan Guo, Yifan Hao, Rui Zhang, Enshuai Zhou, Zidong Du, Xishan
Zhang, Xinkai Song, Yuanbo Wen, Yongwei Zhao, Xuehai Zhou, Jiaming Guo, Qi
Yi, Shaohui Peng, Di Huang, Ruizhi Chen, Qi Guo, Yunji Chen
- Abstract要約: エージェントが高レベルのルールを推論し伝達することを奨励する認知指向環境であるReasoning Gameを提案する。
実験結果から,Reasoning Gameでは,意味論的に安定かつ構成的な言語が出現し,推論問題を解くことが示唆された。
- 参考スコア(独自算出の注目度): 38.24159397787027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research on emergent communication between deep-learning-based agents has
received extensive attention due to its inspiration for linguistics and
artificial intelligence. However, previous attempts have hovered around
emerging communication under perception-oriented environmental settings, that
forces agents to describe low-level perceptual features intra image or symbol
contexts. In this work, inspired by the classic human reasoning test (namely
Raven's Progressive Matrix), we propose the Reasoning Game, a
cognition-oriented environment that encourages agents to reason and communicate
high-level rules, rather than perceived low-level contexts. Moreover, we
propose 1) an unbiased dataset (namely rule-RAVEN) as a benchmark to avoid
overfitting, 2) and a two-stage curriculum agent training method as a baseline
for more stable convergence in the Reasoning Game, where contexts and semantics
are bilaterally drifting. Experimental results show that, in the Reasoning
Game, a semantically stable and compositional language emerges to solve
reasoning problems. The emerged language helps agents apply the extracted rules
to the generalization of unseen context attributes, and to the transfer between
different context attributes or even tasks.
- Abstract(参考訳): 深層学習に基づくエージェント間の創発的コミュニケーションに関する研究は、言語学や人工知能へのインスピレーションにより、広く注目を集めている。
しかし、それまでの試みは、知覚指向の環境設定の下で、新しいコミュニケーションの周囲をホバリングしており、エージェントはイメージやシンボルのコンテキスト内の低レベルの知覚の特徴を記述せざるを得なかった。
本研究では,従来の人間推論テスト(ravenのプログレッシブマトリックス)に触発されて,エージェントが低レベルな文脈を知覚するのではなく,高いレベルのルールを推論・伝達することを奨励する認知型環境である推論ゲームを提案する。
さらに 提案します
1)過剰適合を避けるためのベンチマークとして、偏りのないデータセット(いわゆるルールレイブン)
2)コンテクストとセマンティクスが両立する推論ゲームにおけるより安定した収束のためのベースラインとしての2段階のカリキュラムエージェント訓練方法。
実験結果から,Reasoning Gameでは,意味論的に安定かつ構成的な言語が出現し,推論問題を解くことが示唆された。
出現した言語は、エージェントが抽出したルールを、目に見えないコンテキスト属性の一般化や、異なるコンテキスト属性やタスク間の転送に役立てる。
関連論文リスト
- Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Learning Symbolic Rules over Abstract Meaning Representations for
Textual Reinforcement Learning [63.148199057487226]
本稿では,汎用的な意味一般化とルール誘導システムを組み合わせて,解釈可能なルールをポリシーとして学習するモジュール型 NEuroSymbolic Textual Agent (NESTA) を提案する。
実験の結果,NESTA法は,未確認テストゲームや少ないトレーニングインタラクションから学習することで,深層強化学習技術よりも優れることがわかった。
論文 参考訳(メタデータ) (2023-07-05T23:21:05Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Visual Referential Games Further the Emergence of Disentangled
Representations [0.12891210250935145]
本稿では,新興言語のレベルにおける構成性,学習された表現のレベルにおける絡み合い,そして視覚的参照ゲームの文脈における体系性が相互に関連しているかを検討する。
論文 参考訳(メタデータ) (2023-04-27T20:00:51Z) - Compositional Generalization in Grounded Language Learning via Induced
Model Sparsity [81.38804205212425]
グリッド環境における単純な言語条件のナビゲーション問題について考察する。
本研究では,オブジェクトの指示文と属性のスパース相関を助長するエージェントを設計し,それらを組み合わせて目的を導出する。
我々のエージェントは、少数のデモンストレーションから学習した場合でも、新しいプロパティの組み合わせを含む目標に対して高いレベルのパフォーマンスを維持している。
論文 参考訳(メタデータ) (2022-07-06T08:46:27Z) - Keywords and Instances: A Hierarchical Contrastive Learning Framework
Unifying Hybrid Granularities for Text Generation [59.01297461453444]
入力テキスト中のハイブリッドな粒度意味を統一する階層的コントラスト学習機構を提案する。
実験により,本モデルがパラフレージング,対話生成,ストーリーテリングタスクにおいて,競争ベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2022-05-26T13:26:03Z) - Inherently Explainable Reinforcement Learning in Natural Language [14.117921448623342]
本稿では,本質的に説明可能な強化学習エージェントの開発に焦点をあてる。
この階層的説明可能な強化学習エージェントは、インタラクティブフィクション、テキストベースのゲーム環境で動作する。
私たちのエージェントは、説明責任を第一級市民として扱うように設計されています。
論文 参考訳(メタデータ) (2021-12-16T14:24:35Z) - Incorporating Pragmatic Reasoning Communication into Emergent Language [38.134221799334426]
我々は、言語コミュニケーションのダイナミクスを、かなり異なるインテリジェンスとインテリジェンスレベルに沿って研究する。
本稿では,短期的相互推論に基づく実用主義と長期言語創発主義を組み合わせた計算モデルを提案する。
我々の結果は、より自然で正確で、堅牢で、きめ細かな、簡潔な発話を実現するための道を開くことの重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2020-06-07T10:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。