論文の概要: Emergence of Pragmatics from Referential Game between Theory of Mind
Agents
- arxiv url: http://arxiv.org/abs/2001.07752v2
- Date: Thu, 30 Sep 2021 23:04:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 23:18:11.985573
- Title: Emergence of Pragmatics from Referential Game between Theory of Mind
Agents
- Title(参考訳): 思考エージェントの理論間の参照ゲームからのプラグマティクスの出現
- Authors: Luyao Yuan, Zipeng Fu, Jingyue Shen, Lu Xu, Junhong Shen, Song-Chun
Zhu
- Abstract要約: エージェントが手書きのルールを指定せずに「行間を読む」能力を自発的に学習するアルゴリズムを提案する。
協調型マルチエージェント教育状況における心の理論(ToM)を統合し,適応型強化学習(RL)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 64.25696237463397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pragmatics studies how context can contribute to language meanings. In human
communication, language is never interpreted out of context, and sentences can
usually convey more information than their literal meanings. However, this
mechanism is missing in most multi-agent systems, restricting the communication
efficiency and the capability of human-agent interaction. In this paper, we
propose an algorithm, using which agents can spontaneously learn the ability to
"read between lines" without any explicit hand-designed rules. We integrate the
theory of mind (ToM) in a cooperative multi-agent pedagogical situation and
propose an adaptive reinforcement learning (RL) algorithm to develop a
communication protocol. ToM is a profound cognitive science concept, claiming
that people regularly reason about other's mental states, including beliefs,
goals, and intentions, to obtain performance advantage in competition,
cooperation or coalition. With this ability, agents consider language as not
only messages but also rational acts reflecting others' hidden states. Our
experiments demonstrate the advantage of pragmatic protocols over non-pragmatic
protocols. We also show the teaching complexity following the pragmatic
protocol empirically approximates to recursive teaching dimension (RTD).
- Abstract(参考訳): プラグマティクスは文脈がどのように言語の意味に寄与するかを研究する。
人間のコミュニケーションでは、言語は文脈から解釈されることはなく、文は通常、文字通りの意味よりも多くの情報を伝えることができる。
しかし、このメカニズムは多くのマルチエージェントシステムでは欠如しており、通信効率とヒューマンエージェントインタラクションの能力を制限する。
本稿では,エージェントが明示的なルールを使わずに「行間読み」能力を自発的に学習できるアルゴリズムを提案する。
本稿では,協調型マルチエージェント教育環境における心の理論(tom)の統合と,コミュニケーションプロトコル構築のための適応強化学習(rl)アルゴリズムを提案する。
ToMは深い認知科学の概念であり、人々は競争、協力、連立においてパフォーマンス上の優位性を得るために、信念、目標、意図を含む、他人の精神状態について定期的に推論すると主張している。
この能力により、エージェントは言語をメッセージだけでなく、他人の隠れた状態を反映する合理的な行動と見なす。
本実験は,非実用的プロトコルに対する実用的プロトコルの利点を示す。
また,経験的にRTD(recursive teaching dimension)に近似した実用的プロトコルに基づく授業の複雑さを示す。
関連論文リスト
- Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Regularized Conventions: Equilibrium Computation as a Model of Pragmatic
Reasoning [72.21876989058858]
本稿では,信号ゲームの正規化平衡を探索することにより,発話を生成・理解する実用的な言語理解のモデルを提案する。
このモデルでは、話者とリスナーは文脈的に適切な発話を探索し、ゲーム理論の最適規則に近づき、共有された'デフォルト'セマンティクスに近い意味のマッピングを意味づける。
論文 参考訳(メタデータ) (2023-11-16T09:42:36Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - On the Role of Emergent Communication for Social Learning in Multi-Agent
Reinforcement Learning [0.0]
社会学習は、専門家からのヒントを使って、異質なポリシーを整列し、サンプルの複雑さを減らし、部分的に観察可能なタスクを解決する。
本稿では,情報ボトルネックに基づく教師なし手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T03:23:27Z) - Modeling Non-Cooperative Dialogue: Theoretical and Empirical Insights [11.462075538526703]
視覚対話タスクの完了時に非協調的インターロケータを識別するエージェントの能力について検討する。
本研究では,非協調的インターロケータを同定する理論モデルの開発に学習理論のツールを使用し,この理論を適用して異なるコミュニケーション戦略を解析する。
論文 参考訳(メタデータ) (2022-07-15T02:08:41Z) - Learning to Infer Belief Embedded Communication [9.862909791015237]
本稿ではエージェントの言語学習能力を模倣する新しいアルゴリズムを提案する。
過去の行動に対応する他のエージェントの意図を復号するための知覚モジュールを含んでいる。
また、2つ以上のエージェントとの通信中に暗黙の文法を学ぶための言語生成モジュールも含まれている。
論文 参考訳(メタデータ) (2022-03-15T12:42:10Z) - Scalable pragmatic communication via self-supervision [14.01704261285015]
エージェントが人間のデータを模倣するのではなく,自己監督を通じて実践的な政策を習得するアーキテクチャと学習プロセスを提案する。
本研究は, 自己超越による実用的スキルを持つ人工エージェントを装備するための, 新たな原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:28:30Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。