論文の概要: ChatCoT: Tool-Augmented Chain-of-Thought Reasoning on Chat-based Large
Language Models
- arxiv url: http://arxiv.org/abs/2305.14323v3
- Date: Mon, 6 Nov 2023 11:00:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 22:43:11.287723
- Title: ChatCoT: Tool-Augmented Chain-of-Thought Reasoning on Chat-based Large
Language Models
- Title(参考訳): ChatCoT: チャットベースの大規模言語モデルに基づくツール拡張型Chain-of-Thought Reasoning
- Authors: Zhipeng Chen, Kun Zhou, Beichen Zhang, Zheng Gong, Wayne Xin Zhao and
Ji-Rong Wen
- Abstract要約: チャットベースのLLMのためのツール拡張チェーン推論フレームワークChatCoTを提案する。
ChatCoTでは、チャットを通じてより自然な方法でツールを活用するために、マルチターン会話として思考の連鎖(CoT)推論をモデル化します。
提案手法は,チャットベースのLLMのマルチターン会話能力を効果的に活用し,思考連鎖とツール操作を統一的に統合する。
- 参考スコア(独自算出の注目度): 125.7209927536255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although large language models (LLMs) have achieved excellent performance in
a variety of evaluation benchmarks, they still struggle in complex reasoning
tasks which require specific knowledge and multi-hop reasoning. To improve the
reasoning abilities, we propose ChatCoT, a tool-augmented chain-of-thought
reasoning framework for chat-based LLMs (e.g., ChatGPT). In ChatCoT, we model
the chain-of-thought (CoT) reasoning as multi-turn conversations, to utilize
tools in a more natural way through chatting. At each turn, LLMs can either
interact with tools or perform the reasoning. Our approach can effectively
leverage the multi-turn conversation ability of chat-based LLMs, and integrate
the thought chain following and tools manipulation in a unified way. Specially,
we initialize the early turns of the conversation by the knowledge about tools,
tasks, and reasoning format, and propose an iterative tool-augmented reasoning
step to perform step-by-step tool-augmented reasoning. The experiment results
on two complex reasoning datasets (MATH and HotpotQA) have shown the
effectiveness of ChatCoT on complex reasoning tasks, achieving a 7.9% relative
improvement over the state-of-the-art baseline. Our code and data are available
at: \url{https://github.com/RUCAIBOX/ChatCoT}.
- Abstract(参考訳): 大規模言語モデル(llm)は様々な評価ベンチマークで優れた性能を達成しているが、特定の知識とマルチホップ推論を必要とする複雑な推論タスクにはまだ苦労している。
推論能力を向上させるために,チャットベースのLLM(ChatGPTなど)のためのツール拡張チェーン推論フレームワークChatCoTを提案する。
ChatCoTでは、チャットを通じてより自然な方法でツールを活用するために、マルチターン会話として思考の連鎖(CoT)推論をモデル化します。
各ターンで、LSMはツールと対話するか、推論を実行することができる。
提案手法は,チャットベースのLLMのマルチターン会話能力を効果的に活用し,思考連鎖とツール操作を統一的に統合する。
特に,ツールやタスク,推論形式に関する知識によって会話の初期段階を初期化し,ステップバイステップのツールによる推論を行う反復的ツール推論ステップを提案する。
2つの複雑な推論データセット(MATHとHotpotQA)の実験結果は、ChatCoTが複雑な推論タスクに与える影響を示し、最先端のベースラインに対して7.9%の相対的な改善を実現している。
私たちのコードとデータは、 \url{https://github.com/rucaibox/chatcot} で利用可能です。
関連論文リスト
- Markov Chain of Thought for Efficient Mathematical Reasoning [10.678633785012691]
多段階の思考の連鎖(CoT)は、推論ステップとタスク固有のアクションの論理構造から恩恵を受ける。
我々は、標準多段階CoTを思考のマルコフ連鎖(MCoT)として概念化する。
論文 参考訳(メタデータ) (2024-10-23T07:53:29Z) - ChatLogic: Integrating Logic Programming with Large Language Models for Multi-Step Reasoning [15.468435593587808]
本稿では、推論タスクに特化したフレームワークChatLogicを紹介する。
ChatLogicでは、言語モデルが中心的な役割を担い、コントローラとして機能し、すべてのシステム運用ステージに参加する。
本稿では,論理問題を推論エンジンとのシンボリックな統合に変換する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-14T11:06:43Z) - PerkwE_COQA: Enhanced Persian Conversational Question Answering by combining contextual keyword extraction with Large Language Models [0.8057006406834466]
本稿では,ペルシア語対話型質問応答システム(CQA)の性能向上のための新しい手法を提案する。
LLM(Large Language Models)と文脈キーワード抽出の長所を組み合わせる。
提案手法は,暗黙的な質問を効果的に処理し,文脈に関連のある回答を提示し,会話の文脈に大きく依存する複雑な質問に対処する。
論文 参考訳(メタデータ) (2024-04-08T11:14:58Z) - Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - Efficient Tool Use with Chain-of-Abstraction Reasoning [65.18096363216574]
大規模言語モデル(LLM)は、現実世界の知識に対する推論の基礎となる必要がある。
マルチステップ推論問題におけるツールの実行には,微調整LDMエージェントの課題が残されている。
マルチステップ推論におけるツールの活用方法として, LLM の新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T21:53:30Z) - Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue [73.69510478736483]
大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
しかし、それらは重要な能力、コミュニケーションスキルを欠いている。
本稿は,内的モノローグによるLLMのコミュニケーション能力向上を目的としている。
実験の結果,提案したCSIM戦略はバックボーンモデルを改善し,ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-11-13T16:19:42Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on
Reasoning, Hallucination, and Interactivity [79.12003701981092]
8種類の共通NLPアプリケーションタスクをカバーする23のデータセットを用いてChatGPTの広範な技術的評価を行う。
これらのデータセットと、新たに設計されたマルチモーダルデータセットに基づいて、ChatGPTのマルチタスク、マルチリンガル、マルチモーダルの側面を評価する。
ChatGPTの精度は平均63.41%で、論理的推論、非テキスト的推論、コモンセンス推論の10の異なる推論カテゴリで正確である。
論文 参考訳(メタデータ) (2023-02-08T12:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。