論文の概要: Exchange-of-Thought: Enhancing Large Language Model Capabilities through
Cross-Model Communication
- arxiv url: http://arxiv.org/abs/2312.01823v1
- Date: Mon, 4 Dec 2023 11:53:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 15:12:18.065914
- Title: Exchange-of-Thought: Enhancing Large Language Model Capabilities through
Cross-Model Communication
- Title(参考訳): Exchange-of-Thought: クロスモデル通信による大規模言語モデルの能力向上
- Authors: Zhangyue Yin, Qiushi Sun, Cheng Chang, Qipeng Guo, Junqi Dai, Xuanjing
Huang, Xipeng Qiu
- Abstract要約: 大規模言語モデル(LLM)は、最近、Chain-of-Thoughtテクニックによる複雑な推論タスクにおいて大きな進歩を遂げました。
本稿では,問題解決時のクロスモデル通信を可能にする新しいフレームワークであるExchange-of-Thought (EoT)を提案する。
- 参考スコア(独自算出の注目度): 76.04373033082948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have recently made significant strides in
complex reasoning tasks through the Chain-of-Thought technique. Despite this
progress, their reasoning is often constrained by their intrinsic
understanding, lacking external insights. To address this, we propose
Exchange-of-Thought (EoT), a novel framework that enables cross-model
communication during problem-solving. Drawing inspiration from network
topology, EoT integrates four unique communication paradigms: Memory, Report,
Relay, and Debate. This paper delves into the communication dynamics and volume
associated with each paradigm. To counterbalance the risks of incorrect
reasoning chains, we implement a robust confidence evaluation mechanism within
these communications. Our experiments across diverse complex reasoning tasks
demonstrate that EoT significantly surpasses established baselines,
underscoring the value of external insights in enhancing LLM performance.
Furthermore, we show that EoT achieves these superior results in a
cost-effective manner, marking a promising advancement for efficient and
collaborative AI problem-solving.
- Abstract(参考訳): 大規模言語モデル(LLM)は、最近、Chain-of-Thoughtテクニックによる複雑な推論タスクにおいて大きな進歩を遂げました。
この進歩にもかかわらず、彼らの推論は、しばしば内在的な理解によって制限され、外部の洞察を欠いている。
そこで本研究では,問題解決時のクロスモデル通信を可能にする新しいフレームワークであるExchange-of-Thought (EoT)を提案する。
ネットワークトポロジーからインスピレーションを得て、eotはメモリ、レポート、リレー、ディベートという4つのユニークなコミュニケーションパラダイムを統合している。
本稿では,各パラダイムに関連する通信力学とボリュームについて述べる。
誤った推論連鎖のリスクを相殺するために,これらの通信に頑健な信頼度評価機構を実装した。
多様な複雑な推論タスクに対する実験により、EoTは確立されたベースラインをはるかに超え、LCM性能向上における外部洞察の価値を実証した。
さらに、EoTはこれらの優れた結果をコスト効率よく達成し、効率的で協調的なAI問題解決のための有望な進歩を示す。
関連論文リスト
- GIVE: Structured Reasoning with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを統合する新しい推論フレームワークである。
本手法は,ゴールド回答検索ではなく,専門家の問題解決に類似した論理的・段階的推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - The Role of Deductive and Inductive Reasoning in Large Language Models [35.43513487137371]
大規模言語モデル(LLM)は人工知能、特に推論タスクにおいて大きな進歩を遂げている。
本稿では, 帰納的推論と帰納的推論を動的に統合することにより, LLM推論を強化するDID法を提案する。
以上の結果から,DIDはLLMにおける推論のための,より堅牢で認知に整合した枠組みを提供する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-03T18:30:47Z) - Iteration of Thought: Leveraging Inner Dialogue for Autonomous Large Language Model Reasoning [0.0]
反復的人間のエンゲージメントは、大規模言語モデル(LLM)の高度な言語処理能力を活用するための一般的かつ効果的な手段である。
思考の反復(IoT)フレームワークを提案する。
静的アプローチや半静的アプローチとは異なり、IoTは進化するコンテキストに基づいて推論パスを動的に適応する。
論文 参考訳(メタデータ) (2024-09-19T09:44:17Z) - Fine-Tuning Large Vision-Language Models as Decision-Making Agents via Reinforcement Learning [79.38140606606126]
強化学習(RL)を用いた視覚言語モデル(VLM)を微調整するアルゴリズムフレームワークを提案する。
我々のフレームワークはタスク記述を提供し、次にVLMにチェーン・オブ・シント(CoT)推論を生成するよう促す。
提案手法は,VLMエージェントの様々なタスクにおける意思決定能力を向上させる。
論文 参考訳(メタデータ) (2024-05-16T17:50:19Z) - Cantor: Inspiring Multimodal Chain-of-Thought of MLLM [83.6663322930814]
視覚的コンテキスト獲得と論理的推論の集約は、視覚的推論タスクに取り組む上で重要であると我々は主張する。
我々はCantorと呼ばれる革新的なマルチモーダルCoTフレームワークを提案し、その特徴は知覚決定アーキテクチャである。
提案手法の有効性を実証し,マルチモーダルCoT性能の大幅な向上を示した。
論文 参考訳(メタデータ) (2024-04-24T17:59:48Z) - ERA-CoT: Improving Chain-of-Thought through Entity Relationship Analysis [20.24915029448926]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて、賞賛できる成果を達成している。
これらの課題は、多段階の推論を必要とする暗黙の関係の存在から生じる。
本稿では,エンティティ間の関係を捉えることで,LLMのコンテキスト理解を支援する新しいアプローチであるERA-CoTを提案する。
論文 参考訳(メタデータ) (2024-03-11T17:18:53Z) - DDCoT: Duty-Distinct Chain-of-Thought Prompting for Multimodal Reasoning
in Language Models [28.712359821231182]
大規模言語モデル(LLM)は、思考の連鎖(CoT)を利用して人間の思考を模倣することによって、言語モダリティの多段階的推論において顕著な進歩を遂げた。
これらの進歩をマルチモーダルな文脈に移すことは、労働集約的アノテーションの非現実的な必要性に限らず、より高い課題をもたらす。
本研究では,複数モーダリティを推論に組み込んだDDCoTプロンプトを提案する。
論文 参考訳(メタデータ) (2023-10-25T08:03:10Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Joint Communication and Computation Framework for Goal-Oriented Semantic
Communication with Distortion Rate Resilience [13.36706909571975]
我々は、レート歪み理論を用いて、コミュニケーションやセマンティック圧縮によって引き起こされる歪みを解析する。
我々は、AIタスクの実証的精度を事前に見積もることができ、目標指向のセマンティックコミュニケーション問題を実現することができる。
論文 参考訳(メタデータ) (2023-09-26T00:26:29Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。