論文の概要: TRINITY: An Evolved LLM Coordinator
- arxiv url: http://arxiv.org/abs/2512.04695v1
- Date: Thu, 04 Dec 2025 11:45:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.138207
- Title: TRINITY: An Evolved LLM Coordinator
- Title(参考訳): TRINITY: 進化したLLMコーディネータ
- Authors: Jinglue Xu, Qi Sun, Peter Schwendeman, Stefan Nielsen, Edoardo Cetin, Yujin Tang,
- Abstract要約: Trinityは,大規模言語モデル(LLM)間の協調を編成する軽量コーディネータである
クエリを複数のターンで処理し、各ターンでコーディネータが選択したLSMに3つの役割のうちの1つを割り当てる。
実験によると、Trinityは、コーディング、数学、推論、ドメイン知識タスクで、個々のモデルと既存のメソッドを一貫して上回っている。
- 参考スコア(独自算出の注目度): 20.55517425459279
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Combining diverse foundation models is promising, but weight-merging is limited by mismatched architectures and closed APIs. Trinity addresses this with a lightweight coordinator that orchestrates collaboration among large language models (LLMs). The coordinator, comprising a compact language model (approximately $0.6$B parameters) and a lightweight head (approximately $10$K parameters), is optimized with an evolutionary strategy for efficient and adaptive delegation. Trinity processes queries over multiple turns, where at each turn the coordinator assigns one of three roles (Thinker, Worker, or Verifier) to a selected LLM, effectively offloading complex skill acquisition from the coordinator itself. Experiments show that Trinity consistently outperforms individual models and existing methods across coding, math, reasoning, and domain knowledge tasks, and generalizes robustly to out-of-distribution tasks. On standard benchmarks, Trinity achieves state-of-the-art results, including a score of 86.2% on LiveCodeBench. Theoretical and empirical analyses identify two main factors behind this performance: (1) the coordinator's hidden-state representations provide rich contextualization of inputs, and (2) under high dimensionality and strict budget constraints, the separable Covariance Matrix Adaptation Evolution Strategy offers advantages over reinforcement learning, imitation learning, and random search by exploiting potential block-epsilon-separability.
- Abstract(参考訳): 多様な基盤モデルを組み合わせることは有望だが、重み付けはアーキテクチャのミスマッチとクローズドAPIによって制限される。
Trinityは、大きな言語モデル(LLM)間のコラボレーションをオーケストレーションする軽量なコーディネータでこの問題に対処する。
コーディネータは、コンパクト言語モデル(約0.6ドルBのパラメータ)と軽量ヘッド(約10ドルKのパラメータ)から構成され、効率的で適応的なデリゲートのための進化戦略で最適化されている。
Trinityは複数のターンでクエリを処理し、各ターンでコーディネータは選択されたLCMに3つのロール(Thinker、Worker、Verifier)のうちの1つを割り当て、コーディネータ自体から複雑なスキル獲得を効果的にオフロードする。
実験により、Trinityは、コーディング、数学、推論、ドメイン知識タスクにまたがって、個々のモデルや既存のメソッドを一貫して上回り、アウト・オブ・ディストリビューションタスクにしっかりと一般化していることが示された。
標準ベンチマークでは、LiveCodeBenchで86.2%のスコアを含む最先端の結果が達成されている。
1)コーディネータの隠れ状態表現は入力の文脈化を豊かに提供し、(2)高次元および厳密な予算制約の下では、分離可能な共分散行列適応進化戦略は、潜在的ブロック・エプシロン分離性を利用して強化学習、模倣学習、ランダム探索よりも有利である。
関連論文リスト
- CoT-Saliency: Unified Chain-of-Thought Reasoning for Heterogeneous Saliency Tasks [96.64597365827046]
本稿では,3つの運用上不均一なサリエンシタスクを共同で処理する,最初の統合フレームワークを提案する。
タスクの不均一性を橋渡しする視覚言語モデル(VLM)において、チェーン・オブ・ソート(CoT)推論プロセスを導入する。
我々は,全タスクにまたがる特別なSOTA手法と強力なクローズドソースVLMの整合性を示す。
論文 参考訳(メタデータ) (2025-11-01T04:37:01Z) - Wisdom and Delusion of LLM Ensembles for Code Generation and Repair [45.969630994412846]
3つのソフトウェアエンジニアリングベンチマークで10個の大規模言語モデルと3つのLLMのアンサンブルを比較した。
アンサンブルのパフォーマンスの理論的上限は、最高のシングルモデルよりも83%高いことが判明した。
多様性に基づく戦略は、この理論ポテンシャルの最大95%を実現し、小さな2モデルアンサンブルでも有効であることを示す。
論文 参考訳(メタデータ) (2025-10-24T14:39:23Z) - MEJO: MLLM-Engaged Surgical Triplet Recognition via Inter- and Intra-Task Joint Optimization [52.149337961205624]
手術用三重項認識のためのタスク間最適化とタスク内最適化を両立する枠組みを提案する。
タスク間最適化のために、タスク共有およびタスク固有コンポーネントに表現を分解する共有特徴分散学習スキーム(S$2$D)を導入する。
タスク内最適化競合に対して,正負の曖昧さを識別・再バランスするコーディネート・グラディエント・ラーニング(CGL)戦略を開発する。
論文 参考訳(メタデータ) (2025-09-16T09:48:52Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - CoDiEmb: A Collaborative yet Distinct Framework for Unified Representation Learning in Information Retrieval and Semantic Textual Similarity [20.349897901019574]
統合されたテキスト埋め込みをトレーニングするための統合フレームワークであるCoDiEmbを紹介する。
CoDiEmbは、効果的な共同最適化のための3つの重要なイノベーションを統合している。
我々の結果と分析は、このフレームワークがクロスタスクトレードオフを緩和していることを示している。
論文 参考訳(メタデータ) (2025-08-15T12:46:35Z) - Dynamic Context-oriented Decomposition for Task-aware Low-rank Adaptation with Less Forgetting and Faster Convergence [131.41894248194995]
タスク認識方式でアダプタを初期化する新しい手法であるコンテキスト指向分解適応(CorDA)を提案する。
本手法は,タスク認識により,知識保存モード (KPM) と命令レビューモード (IPM) の2つのオプション適応モードを実現する。
論文 参考訳(メタデータ) (2025-06-16T07:55:14Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - CoBa: Convergence Balancer for Multitask Finetuning of Large Language Models [23.50705152648991]
マルチタスク学習(MTL)は,大規模言語モデル(LLM)の微調整に有効である
LLM の既存の MTL 戦略は、計算集約的であるか、同時タスク収束の確保に失敗したかのいずれかによって、しばしば不足する。
本稿では,タスク収束バランスを最小限の計算オーバーヘッドで効果的に管理する新しいMTL手法であるCoBaを提案する。
論文 参考訳(メタデータ) (2024-10-09T10:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。