論文の概要: Filtered not Mixed: Stochastic Filtering-Based Online Gating for Mixture of Large Language Models
- arxiv url: http://arxiv.org/abs/2406.02969v1
- Date: Wed, 5 Jun 2024 05:53:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 19:49:25.102043
- Title: Filtered not Mixed: Stochastic Filtering-Based Online Gating for Mixture of Large Language Models
- Title(参考訳): 混合されていないフィルタ:大規模言語モデルの混合のための確率的フィルタリングに基づくオンラインゲーティング
- Authors: Raeid Saqur, Anastasis Kratsios, Florian Krach, Yannick Limmer, Jacob-Junqi Tian, John Willes, Blanka Horvath, Frank Rudzicz,
- Abstract要約: MoE-F - オンライン時系列予測タスクにおいて、N$で事前訓練されたエキスパート大規模言語モデル(LLM)を組み合わせるための正式なメカニズム。
我々のメカニズムは,各専門家のランニング性能の条件情報を利用して,次のステップで時系列を予測するためのLLMの最適な組み合わせを予測する。
I) MoE-Fアルゴリズム -- プラグアンドプレイフィルタハーネスとしてデプロイ可能、(II) 提案したフィルタリングに基づくゲーティングアルゴリズムの理論的最適性保証、(III) 経験的評価とアブレーション結果。
- 参考スコア(独自算出の注目度): 18.368001176275364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose MoE-F -- a formalised mechanism for combining $N$ pre-trained expert Large Language Models (LLMs) in online time-series prediction tasks by adaptively forecasting the best weighting of LLM predictions at every time step. Our mechanism leverages the conditional information in each expert's running performance to forecast the best combination of LLMs for predicting the time series in its next step. Diverging from static (learned) Mixture of Experts (MoE) methods, MoE-F employs time-adaptive stochastic filtering techniques to combine experts. By framing the expert selection problem as a finite state-space, continuous-time Hidden Markov model (HMM), we can leverage the Wohman-Shiryaev filter. Our approach first constructs $N$ parallel filters corresponding to each of the $N$ individual LLMs. Each filter proposes its best combination of LLMs, given the information that they have access to. Subsequently, the $N$ filter outputs are aggregated to optimize a lower bound for the loss of the aggregated LLMs, which can be optimized in closed-form, thus generating our ensemble predictor. Our contributions here are: (I) the MoE-F algorithm -- deployable as a plug-and-play filtering harness, (II) theoretical optimality guarantees of the proposed filtering-based gating algorithm, and (III) empirical evaluation and ablative results using state of the art foundational and MoE LLMs on a real-world Financial Market Movement task where MoE-F attains a remarkable 17% absolute and 48.5% relative F1 measure improvement over the next best performing individual LLM expert.
- Abstract(参考訳): 我々は、オンライン時系列予測タスクにおいて、LLM予測の最良の重み付けを各ステップで適応的に予測することで、N$の事前訓練されたエキスパート大規模言語モデル(LLM)を組み合わせるための形式化されたメカニズムであるMoE-Fを提案する。
我々のメカニズムは,各専門家のランニング性能の条件情報を利用して,次のステップで時系列を予測するためのLLMの最適な組み合わせを予測する。
静的(学習された)エキスパート混合法(MoE)から派生したMoE-Fでは、専門家を組み合わせるために時間適応確率的フィルタリング技術を採用している。
専門家選択問題を有限状態空間、連続時間ハイデンマルコフモデル (HMM) としてフレーミングすることにより、ウーマン・シリャエフフィルタを利用することができる。
提案手法はまず,それぞれのLLMに対応する$N$並列フィルタを構築する。
各フィルタは、それらがアクセス可能な情報を考えると、LLMの最良の組み合わせを提案する。
その後、N$フィルタ出力を集約して、集約されたLLMの損失に対する下限を最適化し、クローズドフォームで最適化し、アンサンブル予測器を生成する。
I)MoE-Fアルゴリズム -- プラグアンドプレイフィルタリングハーネスとしてデプロイ可能であること、(II)提案されたフィルタリングベースのゲーティングアルゴリズムの理論的最適性を保証すること、(III)MoE-Fが目覚ましい17%の絶対値と48.5%の相対的なF1測定値を持つ実世界の金融市場運動タスクにおいて、最先端の基盤およびMoE LLMを用いた経験的評価と改善結果。
関連論文リスト
- Sequential Large Language Model-Based Hyper-Parameter Optimization [0.0]
本研究では,Large Language Models (LLMs)を活用する革新的なフレームワークSLLMBOを紹介する。
SLLMBOは、最近の完全にLLMベースの手法の制限に対処することにより、より堅牢な最適化を実現する。
ベンチマークでは、GPT-3.5-turbo、GPT-4o、Claude-Sonnet-3.5、Gemini-1.5-flashを含む複数のLCMを評価している。
論文 参考訳(メタデータ) (2024-10-27T00:50:30Z) - LLM-based Optimization of Compound AI Systems: A Survey [64.39860384538338]
複合AIシステムでは、LLMコール、レトリバー、コードインタプリタ、ツールなどのコンポーネントが相互接続される。
近年の進歩により, LLM を用いたパラメータのエンドツーエンド最適化が可能となった。
本稿では,複合AIシステムのLCMに基づく最適化の原理と動向について述べる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - SelectLLM: Query-Aware Efficient Selection Algorithm for Large Language Models [8.558834738072363]
大規模言語モデル(LLM)は、様々なタスクで顕著な成功を収めたため、人気が高まっている。
しかしながら、個々のLLMは、トレーニングバイアス、モデルサイズ、使用されるデータセットなどの要因のために、複雑なタスクに適用する場合に制限がある。
本稿では,入力クエリを大規模プールからLLMの最も適切なサブセットに誘導する新しいアルゴリズムであるSelectLLMを紹介する。
論文 参考訳(メタデータ) (2024-08-16T06:11:21Z) - Extend Model Merging from Fine-Tuned to Pre-Trained Large Language Models via Weight Disentanglement [72.97553348776425]
我々は、FTからPT LLMへのマージ技術の適用性を拡大するための先駆的な取り組みを行っている。
WeIght DisENtanglement (WIDEN) に基づくアプローチを導入し、マージ範囲を効果的に拡張する。
Qwen1.5-Chat (FT LLM with instruction-following skills) と Sailor (PT LLM with multilingual abilities) を7Bおよび14Bモデルスケールにマージする。
論文 参考訳(メタデータ) (2024-08-06T10:46:46Z) - Decoding-Time Language Model Alignment with Multiple Objectives [116.42095026960598]
既存の手法は主に、1つの報酬関数に対してLMを最適化することに集中し、それらの適応性は様々な目的に制限される。
本稿では,予測の線形結合から次のトークンを出力する復号時間アルゴリズムである$textbfmulti-objective decoding (MOD)$を提案する。
提案手法は, 自然条件下であっても, 既存のアプローチが準最適であることを示すとともに, 提案手法の最適性を保証する。
論文 参考訳(メタデータ) (2024-06-27T02:46:30Z) - Value Augmented Sampling for Language Model Alignment and Personalization [39.070662999014836]
報酬最適化のための新しいフレームワーク、価値拡張サンプリング(VAS)を提案する。
VASは、ポリシーと値関数を併用することなく、最適報酬最大化ポリシーを解く。
我々のアルゴリズムは、いくつかの報酬を作曲し、展開期間中に各報酬の幅を制御できる新しい能力を解き放ちます。
論文 参考訳(メタデータ) (2024-05-10T17:59:04Z) - Pack of LLMs: Model Fusion at Test-Time via Perplexity Optimization [18.73637736606997]
Pack of LLMs (PackLLM) は、入力プロンプトが与えられた場合、各LSMの専門知識を活用するテスト時間融合の有効な方法である。
我々は,多種多様なタスクに対して,100以上の大規模言語モデル(LLM)を用いて実験を行う。
PackLLMは、テスト時間融合ベースラインを1.89%精度で上回る。
論文 参考訳(メタデータ) (2024-04-17T16:24:07Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - Machine learning-based conditional mean filter: a generalization of the
ensemble Kalman filter for nonlinear data assimilation [42.60602838972598]
スパース観測に基づく非線形ダイナミクスを持つ高次元非ガウス状態モデルを追跡する機械学習ベースのアンサンブル条件付き平均フィルタ(ML-EnCMF)を提案する。
提案手法は条件付き期待値に基づいて開発され,機械学習(ML)技術とアンサンブル法を組み合わせて数値的に実装されている。
論文 参考訳(メタデータ) (2021-06-15T06:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。