論文の概要: DRAMA: Domain Retrieval using Adaptive Module Allocation
- arxiv url: http://arxiv.org/abs/2602.14960v1
- Date: Mon, 16 Feb 2026 17:38:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.56608
- Title: DRAMA: Domain Retrieval using Adaptive Module Allocation
- Title(参考訳): DRAMA: Adaptive Module Allocation を用いたドメイン検索
- Authors: Pranav Kasela, Marco Braga, Ophir Frieder, Nazli Goharian, Gabriella Pasi, Raffaele Perego,
- Abstract要約: DRAMA(Domain Retrieval using Adaptive Module Allocation)は、ニューラル検索の環境フットプリントを減らすために設計されたエネルギー効率とパラメータ効率のフレームワークである。
本稿では,ニューラル検索の環境フットプリントを低減するために設計されたエネルギー効率およびパラメータ効率のフレームワークであるDRAMAを紹介する。
- 参考スコア(独自算出の注目度): 19.15437181769345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural models are increasingly used in Web-scale Information Retrieval (IR). However, relying on these models introduces substantial computational and energy requirements, leading to increasing attention toward their environmental cost and the sustainability of large-scale deployments. While neural IR models deliver high retrieval effectiveness, their scalability is constrained in multi-domain scenarios, where training and maintaining domain-specific models is inefficient and achieving robust cross-domain generalisation within a unified model remains difficult. This paper introduces DRAMA (Domain Retrieval using Adaptive Module Allocation), an energy- and parameter-efficient framework designed to reduce the environmental footprint of neural retrieval. DRAMA integrates domain-specific adapter modules with a dynamic gating mechanism that selects the most relevant domain knowledge for each query. New domains can be added efficiently through lightweight adapter training, avoiding full model retraining. We evaluate DRAMA on multiple Web retrieval benchmarks covering different domains. Our extensive evaluation shows that DRAMA achieves comparable effectiveness to domain-specific models while using only a fraction of their parameters and computational resources. These findings show that energy-aware model design can significantly improve scalability and sustainability in neural IR.
- Abstract(参考訳): ニューラルモデルは、Web-scale Information Retrieval (IR) でますます使われている。
しかし、これらのモデルに依存すると、かなりの計算とエネルギーの要求が生じ、環境コストや大規模展開の持続可能性に注意が向けられるようになる。
ニューラルIRモデルは高い検索効率を提供するが、そのスケーラビリティは、ドメイン固有モデルのトレーニングと維持が非効率であり、統一モデル内で堅牢なクロスドメイン一般化を実現するというマルチドメインシナリオで制約される。
本稿では,DRAMA(Domain Retrieval using Adaptive Module Allocation)を提案する。
DRAMAはドメイン固有のアダプタモジュールと動的ゲーティング機構を統合し、クエリごとに最も関連するドメイン知識を選択する。
新しいドメインは、軽量なアダプタトレーニングによって効率的に追加でき、完全なモデルの再トレーニングを避けることができる。
異なるドメインをカバーする複数のWeb検索ベンチマークでDRAMAを評価する。
DRAMAは,パラメータと計算資源のごく一部しか使用せず,ドメイン固有モデルに匹敵する有効性が得られることを示す。
これらの結果から,エネルギーを考慮したモデル設計は,ニューラルIRのスケーラビリティと持続可能性を大幅に向上させる可能性が示唆された。
関連論文リスト
- MEMTS: Internalizing Domain Knowledge via Parameterized Memory for Retrieval-Free Domain Adaptation of Time Series Foundation Models [51.506429027626005]
Memory for Time Series (MEMTS) は、時系列予測における検索不要領域適応のための軽量かつプラグアンドプレイ方式である。
MEMTSの鍵となるコンポーネントは知識永続化モジュール(KPM)であり、ドメイン固有の時間力学を内部化する。
このパラダイムシフトにより、MEMTSは定数時間推論とニアゼロレイテンシによる正確なドメイン適応を実現することができる。
論文 参考訳(メタデータ) (2026-02-14T14:00:06Z) - World Model Implanting for Test-time Adaptation of Embodied Agents [29.514831254621438]
具体的AIにおいて、永続的な課題は、エージェントが広範なデータ収集や再トレーニングを必要とせずに、新しいドメインへの堅牢な適応を可能にすることである。
本稿では、大規模言語モデルの推論能力と、独立に学習されたドメイン固有世界モデルを組み合わせた世界モデル埋め込みフレームワーク(WorMI)を提案する。
我々は、VirtualHomeとALFWorldのベンチマークでWorMIを評価し、いくつかのLSMベースのアプローチと比較して、ゼロショットと少数ショットのパフォーマンスが優れていることを示した。
論文 参考訳(メタデータ) (2025-09-04T07:32:16Z) - Retrieval-augmented reasoning with lean language models [5.615564811138556]
複雑なドメイン固有のクエリを解釈できる検索拡張会話エージェントを開発した。
本システムでは,細調整されたQwen2.5-Instructモデルと高密度レトリバーを統合した。
すべての実装の詳細とコードは、ドメイン間のサポートと適応のために公開されています。
論文 参考訳(メタデータ) (2025-08-15T10:38:15Z) - Boosting Domain Incremental Learning: Selecting the Optimal Parameters is All You Need [25.45880299215022]
ドメインインクリメンタルラーニング(DIL)は、連続的なモデル適応を可能にするソリューションを提供する。
既存のPIDILメソッドは、ドメインの数と対応するクラスが増加するにつれてパラメータ選択の精度に悩まされる。
PIDILにおけるドメイン選択を改善する軽量フレームワークSOYOを提案する。
論文 参考訳(メタデータ) (2025-05-29T17:58:57Z) - Let Synthetic Data Shine: Domain Reassembly and Soft-Fusion for Single Domain Generalization [68.41367635546183]
単一ドメインの一般化は、単一のソースからのデータを使用して、さまざまなシナリオで一貫したパフォーマンスでモデルをトレーニングすることを目的としている。
モデル一般化を改善するために合成データを活用した学習フレームワークDRSFを提案する。
論文 参考訳(メタデータ) (2025-03-17T18:08:03Z) - MoDEM: Mixture of Domain Expert Models [23.846823652305027]
大規模言語モデル(LLM)の性能と効率を向上させる新しい手法を提案する。
本稿では、BERTベースのルータを用いて、最も適切なドメインエキスパートモデルに入力プロンプトを指示するシステムを提案する。
本研究は,本手法が同等の大きさの汎用モデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-10-09T23:52:54Z) - Variational Model Perturbation for Source-Free Domain Adaptation [64.98560348412518]
確率的枠組みにおける変分ベイズ推定によるモデルパラメータの摂動を導入する。
本研究では,ベイズニューラルネットワークの学習と理論的関連性を実証し,目的領域に対する摂動モデルの一般化可能性を示す。
論文 参考訳(メタデータ) (2022-10-19T08:41:19Z) - Disentangled Modeling of Domain and Relevance for Adaptable Dense
Retrieval [54.349418995689284]
本稿では,Dense Retrieval (DDR) という新しいフレームワークを提案する。
REMとDAMをアンタングルにすることで、DDRはフレキシブルなトレーニングパラダイムを可能にし、REMは一度監視でトレーニングされ、DAMは教師なしのデータでトレーニングされる。
DDRは強力なDRベースラインに比べて格付け性能が大幅に向上し、ほとんどのシナリオにおいて従来の検索手法よりも大幅に向上する。
論文 参考訳(メタデータ) (2022-08-11T11:18:50Z) - IterMiUnet: A lightweight architecture for automatic blood vessel
segmentation [10.538564380139483]
本稿では,新しい軽量畳み込み型セグメンテーションモデルであるIterMiUnetを提案する。
MiUnetモデルのエンコーダ・デコーダ構造を組み込むことで、その非常にパラメトリズドな性質を克服する。
提案モデルは,多くの疾患の早期診断のためのツールとして活用される可能性が大きい。
論文 参考訳(メタデータ) (2022-08-02T14:33:14Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。