論文の概要: Automatic In-Domain Exemplar Construction and LLM-Based Refinement of Multi-LLM Expansions for Query Expansion
- arxiv url: http://arxiv.org/abs/2602.08917v1
- Date: Mon, 09 Feb 2026 17:16:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.394673
- Title: Automatic In-Domain Exemplar Construction and LLM-Based Refinement of Multi-LLM Expansions for Query Expansion
- Title(参考訳): クエリ拡張のためのマルチLLM拡張の自動ドメイン内例構築とLLMによるリファインメント
- Authors: Minghan Li, Ercong Nie, Siqi Zhao, Tongna Chen, Huiping Huang, Guodong Zhou,
- Abstract要約: ドメイン内の例のプールを構築する自動化されたドメイン適応型QEフレームワークを提案する。
トレーニング不要のクラスタベースの戦略は、さまざまなデモを選択し、監督なしに、強力で安定したコンテキスト内QEを生成する。
TREC DL20、DBPedia、SciFact全体で、洗練されたアンサンブルは一貫性があり統計的に有意な利益をもたらす。
- 参考スコア(独自算出の注目度): 21.52923294473877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query expansion with large language models is promising but often relies on hand-crafted prompts, manually chosen exemplars, or a single LLM, making it non-scalable and sensitive to domain shift. We present an automated, domain-adaptive QE framework that builds in-domain exemplar pools by harvesting pseudo-relevant passages using a BM25-MonoT5 pipeline. A training-free cluster-based strategy selects diverse demonstrations, yielding strong and stable in-context QE without supervision. To further exploit model complementarity, we introduce a two-LLM ensemble in which two heterogeneous LLMs independently generate expansions and a refinement LLM consolidates them into one coherent expansion. Across TREC DL20, DBPedia, and SciFact, the refined ensemble delivers consistent and statistically significant gains over BM25, Rocchio, zero-shot, and fixed few-shot baselines. The framework offers a reproducible testbed for exemplar selection and multi-LLM generation, and a practical, label-free solution for real-world QE.
- Abstract(参考訳): 大きな言語モデルによるクエリ拡張は有望だが、しばしば手作りのプロンプト、手作業で選択した例題、あるいは単一のLLMに頼っている。
本稿では,BM25-MonoT5パイプラインを用いて疑似関連通路を抽出し,ドメイン内の模範プールを構築する,ドメイン適応型自動QEフレームワークを提案する。
トレーニング不要のクラスタベースの戦略は、さまざまなデモを選択し、監督なしに、強力で安定したコンテキスト内QEを生成する。
モデル相補性をさらに活用するため、2つの異種LLMが独立に拡張を生成し、改良LLMがそれらを1つのコヒーレント展開に統合する2-LLMアンサンブルを導入する。
TREC DL20、DBPedia、SciFact全体では、改良されたアンサンブルはBM25、Rocchio、ゼロショット、固定された数発のベースラインに対して一貫性があり統計的に有意な利得をもたらす。
このフレームワークは、模範選択とマルチLLM生成のための再現可能なテストベッドと、実世界のQEのための実用的なラベルなしソリューションを提供する。
関連論文リスト
- FusionFactory: Fusing LLM Capabilities with Multi-LLM Log Data [60.09659670497899]
大規模言語モデル(LLM)は、さまざまなモデルのランドスケープを持ち、それぞれが異なるタスクで優れています。
この多様性は、研究者に複数のLLMを実際に採用させ、貴重なマルチLLMログデータを残します。
1)実世界のサービスシナリオ(例えば、ローカルおよびAPIベースのサービス)との互換性と、(2)様々なユーザニーズを満たすためにLLMパイプラインの異なる段階での運用の柔軟性である。
論文 参考訳(メタデータ) (2025-07-14T17:58:02Z) - ElasticMM: Efficient Multimodal LLMs Serving with Elastic Multimodal Parallelism [9.93378263858092]
マルチモーダル大言語モデル(MLLM)は、特徴抽出器とプロジェクションモジュールを組み込むことで、画像、ビデオ、オーディオを扱う。
現在の密結合のサービスアーキテクチャは、混合要求タイプを区別するのに苦労しています。
本稿では,リソースの不均一性に弾力的に適応する新しいサービスパラダイムであるElastic Multimodal Parallelism(EMP)を紹介する。
論文 参考訳(メタデータ) (2025-07-14T08:53:48Z) - Leveraging Importance Sampling to Detach Alignment Modules from Large Language Models [48.15777554876988]
伝統的なアライメント手法では、しばしば大きな事前訓練されたモデルを再訓練する必要がある。
本稿では,アライメント処理を重要サンプリングの一種として形式化する新しいtextitResidual Alignment Model (textitRAM) を提案する。
本稿では,トークンレベルの復号化を反復的に行う再サンプリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T08:53:02Z) - Distilling Transitional Pattern to Large Language Models for Multimodal Session-based Recommendation [67.84581846180458]
セッションベースのレコメンデーション(SBR)は、匿名セッションに基づいて次の項目を予測する。
近年のMultimodal SBR法は、モダリティ学習に単純化された事前学習モデルを用いるが、セマンティック・リッチネスに制限がある。
蒸留パラダイムを拡張し,MSBRの促進のための遷移パターンを分離・整合させる多モードLCM拡張フレームワークTPADを提案する。
論文 参考訳(メタデータ) (2025-04-13T07:49:08Z) - FedMLLM: Federated Fine-tuning MLLM on Multimodal Heterogeneity Data [56.08867996209236]
フェデレートラーニング(FL)による微調整型マルチモーダル大言語モデル(MLLM)は、プライベートデータソースを含めることで、トレーニングデータの範囲を拡大することができる。
マルチモーダルな異種シナリオにおけるMLLMのファインチューニング性能を評価するためのベンチマークを提案する。
従来のFL手法を2つのモダリティに依存しない戦略と組み合わせた一般的なFedMLLMフレームワークを開発した。
論文 参考訳(メタデータ) (2024-11-22T04:09:23Z) - Self-prompted Chain-of-Thought on Large Language Models for Open-domain
Multi-hop Reasoning [70.74928578278957]
オープンドメイン質問回答(ODQA)では、ほとんどの既存の質問はコモンセンスのシングルホップ推論を必要とする。
大規模言語モデル(LLM)は、外部コーパスなしでODQAを促進するために重要な有用性を見出した。
高品質なCoTを大量生産する自動化フレームワークSP-CoTを提案する。
論文 参考訳(メタデータ) (2023-10-20T14:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。