論文の概要: When One LLM Drools, Multi-LLM Collaboration Rules
- arxiv url: http://arxiv.org/abs/2502.04506v1
- Date: Thu, 06 Feb 2025 21:13:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:57:03.991374
- Title: When One LLM Drools, Multi-LLM Collaboration Rules
- Title(参考訳): LLMが1回ドロールすると、複数LLM協調ルールが成立する
- Authors: Shangbin Feng, Wenxuan Ding, Alisa Liu, Zifeng Wang, Weijia Shi, Yike Wang, Zejiang Shen, Xiaochuang Han, Hunter Lang, Chen-Yu Lee, Tomas Pfister, Yejin Choi, Yulia Tsvetkov,
- Abstract要約: 私たちは、データ、スキル、人々の幅広い多様性を表現するために、マルチLLMコラボレーションを議論しています。
既存のマルチLLM協調手法を,アクセスレベルと情報交換レベルに基づいて階層構造に整理する。
コンポジションインテリジェンスとコラボレーティブAI開発への不可欠な道として,マルチLLMコラボレーションを構想する。
- 参考スコア(独自算出の注目度): 98.71562711695991
- License:
- Abstract: This position paper argues that in many realistic (i.e., complex, contextualized, subjective) scenarios, one LLM is not enough to produce a reliable output. We challenge the status quo of relying solely on a single general-purpose LLM and argue for multi-LLM collaboration to better represent the extensive diversity of data, skills, and people. We first posit that a single LLM underrepresents real-world data distributions, heterogeneous skills, and pluralistic populations, and that such representation gaps cannot be trivially patched by further training a single LLM. We then organize existing multi-LLM collaboration methods into a hierarchy, based on the level of access and information exchange, ranging from API-level, text-level, logit-level, to weight-level collaboration. Based on these methods, we highlight how multi-LLM collaboration addresses challenges that a single LLM struggles with, such as reliability, democratization, and pluralism. Finally, we identify the limitations of existing multi-LLM methods and motivate future work. We envision multi-LLM collaboration as an essential path toward compositional intelligence and collaborative AI development.
- Abstract(参考訳): このポジションペーパーは、多くの現実的なシナリオ(すなわち、複雑な、文脈化された、主観的な)において、1つのLCMは信頼できる出力を生成するには不十分であると主張している。
我々は、単一の汎用LLMにのみ依存するという現状に挑戦し、データ、スキル、人々の広範な多様性を表現するために、マルチLLMコラボレーションを議論する。
まず, 1 つの LLM が実世界のデータ分布, 異種スキル, および多元性集団を低く表現し, 単一の LLM のさらなる訓練により, それらの表現ギャップを自明にパッチすることは不可能である,と仮定する。
次に、APIレベル、テキストレベル、ロジットレベルから重み付けレベルまで、アクセスと情報交換のレベルに基づいて、既存のマルチLLMコラボレーションメソッドを階層化します。
これらの手法に基づいて,マルチLLMコラボレーションは,信頼性や民主化,多元主義といった,単一LLMが抱える課題にどのように対処するかを強調した。
最後に,既存のマルチLLM手法の限界を特定し,今後の課題を動機づける。
コンポジションインテリジェンスとコラボレーティブAI開発への不可欠な道として,マルチLLMコラボレーションを構想する。
関連論文リスト
- Multi-LLM Text Summarization [58.74987409988719]
本稿では,マルチLLM要約フレームワークを提案し,集中化と分散化を含む2つの異なるマルチLLM戦略について検討する。
当社のフレームワークは,各会話のラウンドにおいて,生成と評価という,基本的に重要なステップを2つ備えています。
我々のマルチLLM要約アプローチは, 1 つの LLM のみを最大 3 倍まで活用するベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-12-20T01:55:26Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [64.13803241218886]
推論問題に対するマルチエージェントLLMトレーニング(MALT)に向けた第一歩を提示する。
提案手法では,ヘテロジニアスLSMが割り当てられた逐次的マルチエージェント構成を用いる。
我々は,MATH,GSM8k,CQAにまたがるアプローチを評価し,MALT on Llama 3.1 8Bモデルでそれぞれ14.14%,7.12%,9.40%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - Merge, Ensemble, and Cooperate! A Survey on Collaborative Strategies in the Era of Large Language Models [32.336273322481276]
多様な機能にもかかわらず、Large Language Models (LLM) は様々な長所と短所を示す。
これらの課題に対処するため、最近の研究はLLMの協調戦略を探求している。
本稿では,この新たな研究領域の概要を概観し,そのようなコラボレーションの背景にあるモチベーションを明らかにする。
論文 参考訳(メタデータ) (2024-07-08T16:29:08Z) - CollabStory: Multi-LLM Collaborative Story Generation and Authorship Analysis [5.929552001093879]
私たちはCollabStoryと呼ばれる、初めてLLM生成のコラボレーティブなストーリーデータセットを生成します。
オープンソース命令チューニング LLM を用いて,32k 以上のストーリーを生成する。
複数LLM設定のためのオーサシップ関連タスクを拡張し,LLM-LLMコラボレーションのためのベースラインを提示する。
論文 参考訳(メタデータ) (2024-06-18T14:35:12Z) - LLM-based Multi-Agent Reinforcement Learning: Current and Future Directions [8.55917897789612]
我々は、共通の目標を持つ複数のエージェントの協調作業と、それら間のコミュニケーションに焦点を当てる。
また、フレームワークの言語コンポーネントによって実現されるヒューマン・イン・オン・ザ・ループのシナリオについても検討する。
論文 参考訳(メタデータ) (2024-05-17T22:10:23Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Examining Inter-Consistency of Large Language Models Collaboration: An
In-depth Analysis via Debate [41.949869545423375]
大きな言語モデル(LLM)は、様々なアプリケーションで印象的な機能を示しているが、それでも様々な矛盾問題に直面している。
LLMが効果的に協力して共有目標のコンセンサスを達成するためには,コモンセンス推論に焦点をあてる。
我々の研究は,LLM間の一貫性の理解に寄与し,今後のコラボレーション手法開発の基礎を築いた。
論文 参考訳(メタデータ) (2023-05-19T11:15:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。