論文の概要: Connecting the Dots: A Chain-of-Collaboration Prompting Framework for LLM Agents
- arxiv url: http://arxiv.org/abs/2505.10936v1
- Date: Fri, 16 May 2025 07:14:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.26508
- Title: Connecting the Dots: A Chain-of-Collaboration Prompting Framework for LLM Agents
- Title(参考訳): ドットの接続: LLMエージェントのための協調プロンプトフレームワーク
- Authors: Jiaxing Zhao, Hongbin Xie, Yuzhen Lei, Xuan Song, Zhuoran Shi, Lianxin Li, Shuangxue Liu, Haoran Zhang,
- Abstract要約: 大規模言語モデル(LLM)は複雑な推論タスクの実行において素晴らしいパフォーマンスを示している。
私たちは、知識とプロンプトを低コストで組み合わせたコラボレーションプロンプトフレームワークであるCochainを提案します。
- 参考スコア(独自算出の注目度): 14.211554116294762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated impressive performance in executing complex reasoning tasks. Chain-of-thought effectively enhances reasoning capabilities by unlocking the potential of large models, while multi-agent systems provide more comprehensive solutions by integrating collective intelligence of multiple agents. However, both approaches face significant limitations. Single-agent with chain-of-thought, due to the inherent complexity of designing cross-domain prompts, faces collaboration challenges. Meanwhile, multi-agent systems consume substantial tokens and inevitably dilute the primary problem, which is particularly problematic in business workflow tasks. To address these challenges, we propose Cochain, a collaboration prompting framework that effectively solves business workflow collaboration problem by combining knowledge and prompts at a reduced cost. Specifically, we construct an integrated knowledge graph that incorporates knowledge from multiple stages. Furthermore, by maintaining and retrieving a prompts tree, we can obtain prompt information relevant to other stages of the business workflow. We perform extensive evaluations of Cochain across multiple datasets, demonstrating that Cochain outperforms all baselines in both prompt engineering and multi-agent LLMs. Additionally, expert evaluation results indicate that the use of a small model in combination with Cochain outperforms GPT-4.
- Abstract(参考訳): 大規模言語モデル(LLM)は複雑な推論タスクの実行において素晴らしいパフォーマンスを示している。
チェーン・オブ・シントは、大規模モデルの可能性を解き放つことによって推論能力を効果的に強化する一方、マルチエージェントシステムは、複数のエージェントの集合的なインテリジェンスを統合することで、より包括的なソリューションを提供する。
しかし、どちらのアプローチも大きな制限に直面している。
クロスドメインプロンプトを設計する本質的に複雑なため、チェーンオブ思想を持つシングルエージェントは、コラボレーションの課題に直面します。
一方、マルチエージェントシステムは重要なトークンを消費し、ビジネスワークフロータスクにおいて特に問題となる主要な問題を必然的に減らす。
このような課題に対処するために、私たちは、知識とプロンプトを低コストで組み合わせることで、ビジネスワークフローのコラボレーションを効果的に解決するコラボレーションプロンプトフレームワークであるCochainを提案します。
具体的には,複数の段階からの知識を組み込んだ知識グラフを構築する。
さらに、プロンプトツリーの維持と検索により、ビジネスワークフローの他の段階に関連するプロンプト情報を得ることができる。
我々は、複数のデータセットにわたるCochainの広範な評価を行い、Cochainが、迅速なエンジニアリングとマルチエージェントLLMの両方において、すべてのベースラインを上回ります。
さらに、専門家による評価結果から、Cochainと組み合わせた小さなモデルの使用は、GPT-4よりも優れていたことが示唆された。
関連論文リスト
- A Trustworthy Multi-LLM Network: Challenges,Solutions, and A Use Case [59.58213261128626]
複数の大規模言語モデル(LLM)を信頼性のあるマルチLLMネットワーク(MultiLLMN)に接続するブロックチェーン対応協調フレームワークを提案する。
このアーキテクチャは、複雑なネットワーク最適化問題に対する最も信頼性が高く高品質な応答の協調評価と選択を可能にする。
論文 参考訳(メタデータ) (2025-05-06T05:32:46Z) - Layered Chain-of-Thought Prompting for Multi-Agent LLM Systems: A Comprehensive Approach to Explainable Large Language Models [0.0]
提案するLayered Chain-of-Thought (Layered-CoT) Promptingは,推論プロセスを複数の層に体系的に分割する新しいフレームワークである。
医療トリアージ、財務リスク評価、アジャイルエンジニアリングの3つのシナリオを紹介し、透明性、正確性、ユーザエンゲージメントの観点から、Layered-CoTがバニラCoTをどのように上回っているかを示します。
論文 参考訳(メタデータ) (2025-01-29T13:21:09Z) - Adaptive In-conversation Team Building for Language Model Agents [33.03550687362213]
複数の大規模言語モデル(LLM)エージェントを活用することは、複雑なタスクに取り組む上で有望なアプローチであることが示されている。
私たちの新しい適応型チーム構築パラダイムは、Captain Agentという新しいエージェント設計を通じて実現された柔軟なソリューションを提供します。
6つの実世界のシナリオに対する包括的な評価は、Captain Agentが既存のマルチエージェントメソッドを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-05-29T18:08:37Z) - mABC: multi-Agent Blockchain-Inspired Collaboration for root cause analysis in micro-services architecture [31.944353229461157]
マイクロサービスアーキテクチャ(mABC)における根本原因分析のための先駆的フレームワークであるマルチエージェント型コラボレーションを提案する。
mABCは、マイクロサービスアーキテクチャにおける包括的な自動化された根本原因分析と解決を提供し、ITオペレーションドメインを大幅に改善します。
論文 参考訳(メタデータ) (2024-04-18T12:35:39Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration [116.09561564489799]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。