論文の概要: Dual Engines of Thoughts: A Depth-Breadth Integration Framework for Open-Ended Analysis
- arxiv url: http://arxiv.org/abs/2504.07872v1
- Date: Thu, 10 Apr 2025 15:46:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:22:53.281251
- Title: Dual Engines of Thoughts: A Depth-Breadth Integration Framework for Open-Ended Analysis
- Title(参考訳): 思考のデュアルエンジン:オープンエンド分析のための深層統合フレームワーク
- Authors: Fei-Hsuan Yu, Yun-Cheng Chou, Teng-Ruei Chen,
- Abstract要約: The Dual Engines of Thoughts (DEoT)は、包括的なオープンエンド推論のための分析フレームワークである。
オープンエンドの質問」のために設計されており、より広い範囲と深い分析的な探索を可能にする。
実験結果から,DeoTは複雑で多面的問題に対処する上で優れており,総勝率は77~86%であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We propose the Dual Engines of Thoughts (DEoT), an analytical framework for comprehensive open-ended reasoning. While traditional reasoning frameworks primarily focus on finding "the best answer" or "the correct answer" for single-answer problems, DEoT is specifically designed for "open-ended questions," enabling both broader and deeper analytical exploration. The framework centers on three key components: a Base Prompter for refining user queries, a Solver Agent that orchestrates task decomposition, execution, and validation, and a Dual-Engine System consisting of a Breadth Engine (to explore diverse impact factors) and a Depth Engine (to perform deep investigations). This integrated design allows DEoT to balance wide-ranging coverage with in-depth analysis, and it is highly customizable, enabling users to adjust analytical parameters and tool configurations based on specific requirements. Experimental results show that DEoT excels in addressing complex, multi-faceted questions, achieving a total win rate of 77-86% compared to existing reasoning models, thus highlighting its effectiveness in real-world applications.
- Abstract(参考訳): 我々は、包括的なオープンエンド推論のための分析フレームワークであるDual Engines of Thoughts (DEoT)を提案する。
従来の推論フレームワークは主に単一回答問題に対する"最高の答え"や"正しい答え"を見つけることに焦点を当てているが、DeoTは特に"オープンな質問"のために設計されており、より広範な分析的探索と深い分析的探索を可能にしている。
このフレームワークは、ユーザクエリを精錬するBase Prompter、タスクの分解、実行、バリデーションを編成するSolver Agent、Breadth Engine(さまざまな影響要因を探索する)とDepth Engine(深い調査を行う)で構成されるDual-Engine Systemの3つの重要なコンポーネントを中心にしている。
この統合設計により、DeoTは広範囲のカバレッジと詳細な分析のバランスをとることができ、ユーザが特定の要件に基づいて分析パラメータやツールの設定を調整することができるように、高度にカスタマイズできる。
実験結果から,DeoTは複雑で多面的問題に対処する上で優れており,既存の推論モデルと比較して77~86%の勝利率を達成し,実世界のアプリケーションでの有効性を強調した。
関連論文リスト
- CAISSON: Concept-Augmented Inference Suite of Self-Organizing Neural Networks [0.0]
本稿では,レトリーバル・Augmented Generation(RAG)に対する新しい階層的アプローチであるCAISSONを紹介する。
CAISSONの中核は、文書空間の補完的な組織ビューを作成するために、二重自己組織化マップ(SOM)を活用している。
CAISSONを評価するために,合成財務分析ノートと質問応答ペアを生成するフレームワークであるSynFAQAを開発した。
論文 参考訳(メタデータ) (2024-12-03T21:00:10Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.57125498367907]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - Generalization Error Analysis for Sparse Mixture-of-Experts: A Preliminary Study [65.11303133775857]
Mixture-of-Experts (MoE)計算アマルガメート予測
Sparse MoEは、限られた数、あるいは1つの専門家だけを選択的に扱うことで、経験的に保存され、時にはパフォーマンスが向上する一方で、オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2024-03-26T05:48:02Z) - Prompt-fused framework for Inductive Logical Query Answering [31.736934787328156]
本稿では,Pro-QEという問合せ対応のプロンプトフューズフレームワークを提案する。
論理的クエリにおける未知のエンティティの問題に,我々のモデルがうまく対処できることが示される。
論文 参考訳(メタデータ) (2024-03-19T11:30:30Z) - Harder Tasks Need More Experts: Dynamic Routing in MoE Models [58.18526590138739]
本稿では,Mixture of Experts(MoE)モデルのための新しい動的専門家選択フレームワークを提案する。
提案手法は,各入力に対する専門家選択の信頼性レベルに基づいて,専門家を動的に選択する。
論文 参考訳(メタデータ) (2024-03-12T13:41:15Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - Towards End-to-End Open Conversational Machine Reading [57.18251784418258]
オープン検索型会話機械読解(OR-CMR)タスクでは,機械は対話履歴とテキスト知識ベースに応答するマルチターン質問を行う必要がある。
OR-CMRを完全エンドツーエンドで統一されたテキスト・ツー・テキスト・タスクとしてモデル化し、ShARCおよびOR-ShARCデータセットを用いた実験により、提案したエンドツーエンド・フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T15:50:44Z) - Compositional Attention: Disentangling Search and Retrieval [66.7108739597771]
Multi-head, key-value attention は Transformer モデルとそのバリエーションのバックボーンである。
標準的なアテンションヘッドは、検索と検索の間の厳密なマッピングを学ぶ。
本稿では,標準ヘッド構造を置き換える新しいアテンション機構であるコンポジションアテンションアテンションを提案する。
論文 参考訳(メタデータ) (2021-10-18T15:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。