論文の概要: TPE: Towards Better Compositional Reasoning over Conceptual Tools with
Multi-persona Collaboration
- arxiv url: http://arxiv.org/abs/2309.16090v1
- Date: Thu, 28 Sep 2023 01:18:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 18:26:51.188694
- Title: TPE: Towards Better Compositional Reasoning over Conceptual Tools with
Multi-persona Collaboration
- Title(参考訳): TPE:多対人コラボレーションによる概念的ツールよりも優れた構成推論を目指して
- Authors: Hongru Wang, Huimin Wang, Lingzhi Wang, Minda Hu, Rui Wang, Boyang
Xue, Hongyuan Lu, Fei Mi, Kam-Fai Wong
- Abstract要約: 大規模言語モデル(LLM)は、様々な機能ツールの使用を計画する際、例外的な性能を示した。
マルチパーソナライズ・コラボレーション・フレームワークThink-Plan-Execute(TPE)について紹介する。
このフレームワークはレスポンス生成プロセスを、Thinker、Planner、Executorの3つの異なる役割に分離する。
- 参考スコア(独自算出の注目度): 38.63262397010507
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) have demonstrated exceptional performance in
planning the use of various functional tools, such as calculators and
retrievers, particularly in question-answering tasks. In this paper, we expand
the definition of these tools, centering on conceptual tools within the context
of dialogue systems. A conceptual tool specifies a cognitive concept that aids
systematic or investigative thought. These conceptual tools play important
roles in practice, such as multiple psychological or tutoring strategies being
dynamically applied in a single turn to compose helpful responses. To further
enhance the reasoning and planning capability of LLMs with these conceptual
tools, we introduce a multi-persona collaboration framework: Think-Plan-Execute
(TPE). This framework decouples the response generation process into three
distinct roles: Thinker, Planner, and Executor. Specifically, the Thinker
analyzes the internal status exhibited in the dialogue context, such as user
emotions and preferences, to formulate a global guideline. The Planner then
generates executable plans to call different conceptual tools (e.g., sources or
strategies), while the Executor compiles all intermediate results into a
coherent response. This structured approach not only enhances the
explainability and controllability of responses but also reduces token
redundancy. We demonstrate the effectiveness of TPE across various dialogue
response generation tasks, including multi-source (FoCus) and multi-strategy
interactions (CIMA and PsyQA). This reveals its potential to handle real-world
dialogue interactions that require more complicated tool learning beyond just
functional tools. The full code and data will be released for reproduction.
- Abstract(参考訳): 大規模言語モデル(LLM)は、電卓やレトリバーなどの様々な機能ツール、特に質問応答タスクの計画において、例外的な性能を示した。
本稿では,対話システムのコンテキストにおける概念的ツールを中心に,これらのツールの定義を拡大する。
概念ツールは、体系的あるいは調査的な思考を支援する認知的概念を特定する。
これらの概念ツールは、複数の心理学的戦略や学習戦略を1ターンで動的に適用し、有用な応答を構成するなど、実践において重要な役割を果たす。
これらの概念的ツールによるLCMの推論と計画能力をさらに強化するため、多人数共同作業フレームワークThink-Plan-Execute(TPE)を紹介した。
このフレームワークは、応答生成プロセスをthinker、planner、executorという3つの異なる役割に分解する。
具体的には、ユーザ感情や嗜好といった会話の文脈で表される内部状態を分析し、グローバルなガイドラインを定式化する。
プランナーは異なる概念ツール(例えば、ソースや戦略)を呼び出す実行可能なプランを生成し、Executorはすべての中間結果をコヒーレントなレスポンスにコンパイルする。
この構造化アプローチは、応答の説明可能性と制御性を高めるだけでなく、トークン冗長性も低下させる。
マルチソース(FoCus)やマルチストラテジーインタラクション(CIMA,PsyQA)など,対話応答生成タスクにおけるTPEの有効性を示す。
これは、単なる機能的なツール以上の複雑なツール学習を必要とする実世界の対話インタラクションを扱う可能性を明らかにする。
完全なコードとデータは複製のためにリリースされます。
関連論文リスト
- COLT: Towards Completeness-Oriented Tool Retrieval for Large Language Models [60.733557487886635]
そこで我々は,Collaborative Learning-based Tool Retrieval approach, COLTを提案する。
COLTはユーザクエリとツール記述のセマンティックな類似性をキャプチャする。
また、ツールの協調的な情報も考慮に入れている。
論文 参考訳(メタデータ) (2024-05-25T06:41:23Z) - Planning and Editing What You Retrieve for Enhanced Tool Learning [31.963485987789852]
本稿では,Planning, Learning, and Understanding for TOols(P&R)とEdit-and-Ground(E&G)のパラダイムを取り入れた新しいPLUTO(Planning, Learning, and Understanding for TOols)アプローチを提案する。
実験の結果、これらのパラダイムはツール検索タスクにおけるリコールとNDCGを大幅に改善し、現在の最先端モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-03-30T18:41:51Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z) - AssistGPT: A General Multi-modal Assistant that can Plan, Execute,
Inspect, and Learn [25.510696745075688]
我々は、Plan、Execute、Inspect、Learningと呼ばれるインターリーブコードと言語推論アプローチを備えたマルチモーダルAIアシスタントAssistGPTを提案する。
Plannerは自然言語を使ってExecutorで次にすべきツールを計画することができる。
我々は, A-OKVQA と NExT-QA のベンチマーク実験を行い, 最先端の結果を得た。
論文 参考訳(メタデータ) (2023-06-14T17:12:56Z) - SOCIOFILLMORE: A Tool for Discovering Perspectives [10.189255026322996]
SOCIOFILLMOREは、テキストがイベントを描写する際に表現する視点をフォアに導くのに役立つツールである。
我々のツールは、人間の判断を大量に集めることで、理論的にはフレームのセマンティクスと認知言語学に基礎を置いています。
論文 参考訳(メタデータ) (2022-03-07T14:42:22Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。