論文の概要: Harnessing Multiple Large Language Models: A Survey on LLM Ensemble
- arxiv url: http://arxiv.org/abs/2502.18036v1
- Date: Tue, 25 Feb 2025 09:48:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 18:40:57.819649
- Title: Harnessing Multiple Large Language Models: A Survey on LLM Ensemble
- Title(参考訳): 複数の大規模言語モデルの調和: LLMアンサンブルに関する調査
- Authors: Zhijun Chen, Jingzheng Li, Pengpeng Chen, Zhuoran Li, Kai Sun, Yuankai Luo, Qianren Mao, Dingqi Yang, Hailong Sun, Philip S. Yu,
- Abstract要約: 本稿では,LLM アンサンブルにおける最近の展開の体系的レビューを行う。
本稿では, LLM アンサンブルの分類について紹介し, 関連するいくつかの研究課題について論じる。
また、「アンサンブル前推論、アンサンブル後推論、アンサンブル後推論」という幅広いカテゴリの手法のより詳細な分類も提供する。
- 参考スコア(独自算出の注目度): 42.84156709748681
- License:
- Abstract: LLM Ensemble -- which involves the comprehensive use of multiple large language models (LLMs), each aimed at handling user queries during downstream inference, to benefit from their individual strengths -- has gained substantial attention recently. The widespread availability of LLMs, coupled with their varying strengths and out-of-the-box usability, has profoundly advanced the field of LLM Ensemble. This paper presents the first systematic review of recent developments in LLM Ensemble. First, we introduce our taxonomy of LLM Ensemble and discuss several related research problems. Then, we provide a more in-depth classification of the methods under the broad categories of "ensemble-before-inference, ensemble-during-inference, ensemble-after-inference", and review all relevant methods. Finally, we introduce related benchmarks and applications, summarize existing studies, and suggest several future research directions. A curated list of papers on LLM Ensemble is available at https://github.com/junchenzhi/Awesome-LLM-Ensemble.
- Abstract(参考訳): LLM Ensemble -- 複数の大規模言語モデル(LLM)を包括的に使用し、それぞれがダウンストリーム推論中にユーザクエリを処理し、個々の強みを享受することを目的としている - は、最近、大きな注目を集めている。
LLMの可用性は、様々な強度とアウト・オブ・ザ・ボックスのユーザビリティと相まって、LLM Ensembleの分野を大いに進歩させてきた。
本稿では,LLM アンサンブルにおける最近の展開の体系的レビューを行う。
まず, LLM アンサンブルの分類について紹介し, 関連するいくつかの研究課題について論じる。
そこで我々は,「アンサンブル前推論」,「アンサンブル後推論」,「アンサンブル前推論」,「アンサンブル後推論」という幅広いカテゴリの手法について,より詳細な分類を行い,関連するすべての手法について検討する。
最後に、関連するベンチマークとアプリケーションを紹介し、既存の研究を要約し、今後の研究方向性を提案する。
LLM Ensembleのキュレートされた論文のリストはhttps://github.com/junchenzhi/Awesome-LLM-Ensembleで公開されている。
関連論文リスト
- A Survey on LLM-based Multi-Agent System: Recent Advances and New Frontiers in Application [26.95294182705975]
まず,従来の作業の多くを包含するフレームワーク LLM-MAS の定義について論じる。
複雑なタスクの解決、特定のシナリオのシミュレーション、生成エージェントの評価におけるLLM-MASの様々な応用の概要について述べる。
論文 参考訳(メタデータ) (2024-12-23T11:11:51Z) - LAMPO: Large Language Models as Preference Machines for Few-shot Ordinal Classification [34.9210323553677]
LAMPOは,Large Language Models (LLMs) を多クラス順序分類タスクに応用した新しいパラダイムである。
7つの公開データセットに関する大規模な実験は、多様なアプリケーションにわたるLAMPOの極めて競争力のあるパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-08-06T15:55:05Z) - Do Large Language Model Understand Multi-Intent Spoken Language ? [5.494472119991781]
この研究は、多言語言語理解(SLU)におけるLarge Language Models(LLM)の利用において、大きなブレークスルーを示すものである。
本稿では,マルチインテリジェントSLUアプリケーションにおけるエンティティスロットの利用について再検討する。
本稿では,複雑なマルチインテント通信の分析と解釈を増幅するために,サブインテントインストラクション(SII)の概念を導入する。
論文 参考訳(メタデータ) (2024-03-07T13:30:52Z) - Benchmarking LLMs on the Semantic Overlap Summarization Task [9.656095701778975]
本稿では,セマンティック・オーバーラップ・サマリゼーション(SOS)タスクにおいて,Large Language Models (LLM) を包括的に評価する。
本稿では, ROUGE, BERTscore, SEM-F1$などの定評ある指標を, 2種類の代替物語のデータセット上で報告する。
論文 参考訳(メタデータ) (2024-02-26T20:33:50Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - Video Understanding with Large Language Models: A Survey [97.29126722004949]
言語・マルチモーダルタスクにおける大規模言語モデル(LLM)の顕著な機能を考えると,近年の映像理解の進歩について概観する。
Vid-LLMの創発的能力は驚くほど進歩しており、特にオープンな多粒性推論能力がある。
本調査は,Vid-LLMのタスク,データセット,ベンチマーク,評価方法論に関する総合的研究である。
論文 参考訳(メタデータ) (2023-12-29T01:56:17Z) - FollowBench: A Multi-level Fine-grained Constraints Following Benchmark for Large Language Models [79.62191017182518]
FollowBenchは、大規模言語モデルのベンチマークに続くきめ細かい制約のベンチマークである。
本稿では,初期命令に段階的に1つの制約を付加するマルチレベル機構を提案する。
FollowBench上での13のLLMの評価により,LLMの弱さと今後の研究への道のりを示す。
論文 参考訳(メタデータ) (2023-10-31T12:32:38Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。