論文の概要: Beyond Monoliths: Expert Orchestration for More Capable, Democratic, and Safe Large Language Models
- arxiv url: http://arxiv.org/abs/2506.00051v1
- Date: Wed, 28 May 2025 19:32:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-12 00:31:18.232022
- Title: Beyond Monoliths: Expert Orchestration for More Capable, Democratic, and Safe Large Language Models
- Title(参考訳): モノリスを超えて - より機能的で民主的で安全な大規模言語モデルのためのエキスパートオーケストレーション
- Authors: Philip Quirke, Narmeen Oozeer, Chaithanya Bandi, Amir Abdullah, Jason Hoelscher-Obermaier, Jeff M. Phillips, Joshua Greaves, Clement Neo, Fazl Barez, Shriyash Upadhyay,
- Abstract要約: Expert Orchestration"は、クエリ要求と分解に基づいて、数千の既存モデルからインテリジェントに選択するフレームワークである。
このアプローチは、すべてのユーザ要求に対処するためにコストのかかるジェネラリストモデルを強制するのではなく、ターゲットとする専門知識を活用することで、優れたパフォーマンスを提供する。
- 参考スコア(独自算出の注目度): 9.060386625527965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This position paper argues that the prevailing trajectory toward ever larger, more expensive generalist foundation models controlled by a handful of big companies limits innovation and constrains progress. We challenge this approach by advocating for an "Expert Orchestration" framework as a superior alternative that democratizes LLM advancement. Our proposed framework intelligently selects from thousands of existing models based on query requirements and decomposition, focusing on identifying what models do well rather than how they work internally. Independent "judge" models assess various models' capabilities across dimensions that matter to users, while "router" systems direct queries to the most appropriate specialists within an approved set. This approach delivers superior performance by leveraging targeted expertise rather than forcing costly generalist models to address all user requirements. The expert orchestration paradigm represents a significant advancement in LLM capability by enhancing transparency, control, alignment, and safety through model selection while fostering a more democratic ecosystem.
- Abstract(参考訳): このポジションペーパーは、より大きく、より高価なジェネラリスト基盤モデルに向けた一般的な軌道は、イノベーションと制約の進行を制限すると論じている。
LLMの進歩を民主化するための優れた代替手段として、"Expert Orchestration"フレームワークを提唱することで、このアプローチに挑戦する。
提案するフレームワークは,クエリ要求と分解に基づいて,数千の既存モデルからインテリジェントに選択する。
独立した"ジャッジ"モデルは、ユーザにとって重要な次元でさまざまなモデルの能力を評価し、"ルーター"システムは、承認されたセットの中で最も適切な専門家にクエリを指示する。
このアプローチは、すべてのユーザ要求に対処するためにコストのかかるジェネラリストモデルを強制するのではなく、ターゲットとする専門知識を活用することで、優れたパフォーマンスを提供する。
専門家のオーケストレーションパラダイムは、透明性、コントロール、アライメント、モデルのセレクションによる安全性を高めながら、より民主的なエコシステムを育むことによって、LLM能力の大幅な進歩を表している。
関連論文リスト
- ExpertSteer: Intervening in LLMs through Expert Knowledge [71.12193680015622]
アクティベーションステアリングは、大規模言語モデルの生成プロセスを制御するための有望な方法を提供する。
本稿では、任意の専門的モデルを用いてステアリングベクトルを生成する新しいアプローチであるExpertSteerを提案する。
3つのLSMを4つの異なる領域にわたる15の人気のあるベンチマークで包括的な実験を行う。
論文 参考訳(メタデータ) (2025-05-18T08:55:46Z) - On Path to Multimodal Generalist: General-Level and General-Bench [153.9720740167528]
本稿では,MLLMの性能と汎用性を5段階に定義した評価フレームワークであるGeneral-Levelを紹介する。
フレームワークの中核はSynergyの概念であり、モデルが理解と生成をまたいだ一貫性のある機能を維持するかどうかを測定する。
既存の100以上のMLLMを含む評価結果は、ジェネラリストの能力ランキングを明らかにする。
論文 参考訳(メタデータ) (2025-05-07T17:59:32Z) - Large Language Models for Multi-Facility Location Mechanism Design [16.88708405619343]
深層学習モデルは、マルチファシリティロケーションのための戦略防御メカニズムの代替として提案されている。
LLMMechと呼ばれる新しいアプローチを導入し、大きな言語モデルを進化のフレームワークに組み込むことにより、これらの制限に対処する。
実験の結果, LLM生成機構は, 既存の手作りベースラインやディープラーニングモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-03-12T16:49:56Z) - A Survey of Direct Preference Optimization [103.59317151002693]
LLM(Large Language Models)は、前例のない生成能力を示す。
人的価値との整合性は、有用で無害なデプロイメントを保証する上で、依然として重要です。
直接優先度最適化(DPO)は、最近、合理化された代替案として注目されている。
論文 参考訳(メタデータ) (2025-03-12T08:45:15Z) - MoDEM: Mixture of Domain Expert Models [23.846823652305027]
大規模言語モデル(LLM)の性能と効率を向上させる新しい手法を提案する。
本稿では、BERTベースのルータを用いて、最も適切なドメインエキスパートモデルに入力プロンプトを指示するシステムを提案する。
本研究は,本手法が同等の大きさの汎用モデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-10-09T23:52:54Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - ISR-DPO: Aligning Large Multimodal Models for Videos by Iterative Self-Retrospective DPO [36.69910114305134]
我々は、優先モデルを強化するために、反復自己ふりかえり直接選好最適化(ISR-DPO)を提案する。
ISR-DPOは、情報的ビデオ領域に対する自己判断の焦点を強化する。
広範な経験的評価では、ISR-DPOは芸術の状態を著しく上回る。
論文 参考訳(メタデータ) (2024-06-17T07:33:30Z) - Omni-SMoLA: Boosting Generalist Multimodal Models with Soft Mixture of Low-rank Experts [74.40198929049959]
大規模マルチモーダルモデル (LMM) は多くのタスクにまたがって優れた性能を示す。
ジェネラリストのLMMは、タスクの集合をチューニングする際に、しばしばパフォーマンスの劣化に悩まされる。
我々は,Omni-SMoLAを提案する。Omni-SMoLAはSoft MoEアプローチを用いて,多くのマルチモーダルな低ランクの専門家を混在させるアーキテクチャである。
論文 参考訳(メタデータ) (2023-12-01T23:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。