論文の概要: Agents Thinking Fast and Slow: A Talker-Reasoner Architecture
- arxiv url: http://arxiv.org/abs/2410.08328v1
- Date: Thu, 10 Oct 2024 19:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 03:56:20.267272
- Title: Agents Thinking Fast and Slow: A Talker-Reasoner Architecture
- Title(参考訳): 高速でスローなエージェント - 対話型推論アーキテクチャ
- Authors: Konstantina Christakopoulou, Shibl Mourad, Maja Matarić,
- Abstract要約: 大規模言語モデルにより、あらゆる種類のエージェントが自然な会話を通じてユーザと対話できるようになった。
提案手法は,高速かつ直感的であり,会話応答の合成に係わる"Talker"エージェントで構成されている。
本稿では,新しいTalker-Reasonerアーキテクチャについて述べる。
- 参考スコア(独自算出の注目度): 1.7114665201319208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models have enabled agents of all kinds to interact with users through natural conversation. Consequently, agents now have two jobs: conversing and planning/reasoning. Their conversational responses must be informed by all available information, and their actions must help to achieve goals. This dichotomy between conversing with the user and doing multi-step reasoning and planning can be seen as analogous to the human systems of "thinking fast and slow" as introduced by Kahneman. Our approach is comprised of a "Talker" agent (System 1) that is fast and intuitive, and tasked with synthesizing the conversational response; and a "Reasoner" agent (System 2) that is slower, more deliberative, and more logical, and is tasked with multi-step reasoning and planning, calling tools, performing actions in the world, and thereby producing the new agent state. We describe the new Talker-Reasoner architecture and discuss its advantages, including modularity and decreased latency. We ground the discussion in the context of a sleep coaching agent, in order to demonstrate real-world relevance.
- Abstract(参考訳): 大規模言語モデルにより、あらゆる種類のエージェントが自然な会話を通じてユーザと対話できるようになった。
その結果、エージェントには会話と計画/推論という2つの仕事がある。
彼らの会話の反応は、すべての利用可能な情報によって知らせられなければならず、彼らの行動は目標を達成するのに役立ちなければなりません。
ユーザとの会話と多段階の推論と計画の間のこの二分法は、Kahneman氏が紹介した「速くゆっくり考える」という人間のシステムに類似していると見なすことができる。
私たちのアプローチは、"Talker"エージェント(システム)で構成されています。
1)会話応答を高速かつ直感的に合成する「推論」エージェント(システム)
2) より遅く、より熟考的で、より論理的であり、多段階の推論と計画、ツールの呼び出し、世界の行動の実行、そしてそれによって新しいエージェント状態の生成を担います。
本稿では,新しいTalker-Reasonerアーキテクチャについて述べる。
我々は,実世界の関連性を示すために,睡眠コーチングエージェントの文脈で議論を行った。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - ReSpAct: Harmonizing Reasoning, Speaking, and Acting Towards Building Large Language Model-Based Conversational AI Agents [11.118991548784459]
大規模言語モデル(LLM)ベースのエージェントは、ますます外部環境との対話に使われている。
現在のフレームワークでは、これらのエージェントがユーザと対話してタスクの詳細を調整できない。
この作業では、タスク指向の"会話型"エージェントを構築する上で不可欠なスキルを組み合わせた、新しいフレームワークであるReSpActを紹介します。
論文 参考訳(メタデータ) (2024-11-01T15:57:45Z) - One Agent Too Many: User Perspectives on Approaches to Multi-agent
Conversational AI [10.825570464035872]
システムユーザビリティとシステムパフォーマンスの両方において,エージェントオーケストレーションを抽象化する上で,ユーザにとって重要な選択肢があることが示される。
人間の選択した回答の1%以内に評価された質の高い応答を提供できることを実証する。
論文 参考訳(メタデータ) (2024-01-13T17:30:57Z) - On the Discussion of Large Language Models: Symmetry of Agents and
Interplay with Prompts [51.3324922038486]
本稿では,プロンプトの相互作用と議論機構の実証結果について報告する。
また、コンピュートとマージに基づくスケーラブルな議論機構も提案している。
論文 参考訳(メタデータ) (2023-11-13T04:56:48Z) - DUMA: a Dual-Mind Conversational Agent with Fast and Slow Thinking [12.71072798544731]
DUMAは2つの生成型Large Language Model(LLM)をそれぞれ高速な思考と低速な思考に利用することで、デュアルミンドのメカニズムを具現化している。
我々は、不動産業界のオンライン調査を扱うための会話エージェントを構築した。
論文 参考訳(メタデータ) (2023-10-27T11:43:46Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - RMM: A Recursive Mental Model for Dialog Navigation [102.42641990401735]
言語誘導ロボットは、人間の質問と答えの理解の両方を行なわなければならない。
心の理論から着想を得た再帰的メンタルモデル(RMM)を提案する。
我々は、RMMが新しい環境へのより良い一般化を可能にすることを実証する。
論文 参考訳(メタデータ) (2020-05-02T06:57:14Z) - "Wait, I'm Still Talking!" Predicting the Dialogue Interaction Behavior
Using Imagine-Then-Arbitrate Model [24.560203199376478]
実際の人間と人間の会話では、1ターンで長いメッセージではなく、可読性のためのいくつかの短いメッセージが順次送信されることが多い。
本稿では,エージェントが待機するか,直接応答するかを決定するのに役立つ,新しいImagine-then-Arbitrate(ITA)ニューラルダイアログモデルを提案する。
論文 参考訳(メタデータ) (2020-02-22T04:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。