論文の概要: Efficient Temporal-aware Matryoshka Adaptation for Temporal Information Retrieval
- arxiv url: http://arxiv.org/abs/2601.05549v1
- Date: Fri, 09 Jan 2026 06:01:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.859041
- Title: Efficient Temporal-aware Matryoshka Adaptation for Temporal Information Retrieval
- Title(参考訳): 時間情報検索のための時間認識型マトリルシュカ適応法
- Authors: Tuan-Luc Huynh, Weiqing Wang, Trung Le, Thuy-Trang Vu, Dragan Gašević, Yuan-Fang Li, Thanh-Toan Do,
- Abstract要約: TMRL(Talal-Aware Matryoshka Representation Learning)は,TMRL(Taloral-Aware Matryoshka Representation Learning)の略で,TMRL(Taloral-Aware Matryoshka Representation Learning)の略である。
TMRLは多様なテキスト埋め込みモデルに効率よく適応し、競合する時間的検索と時間的RAG性能を実現する。
- 参考スコア(独自算出の注目度): 40.416646294035786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrievers are a key bottleneck in Temporal Retrieval-Augmented Generation (RAG) systems: failing to retrieve temporally relevant context can degrade downstream generation, regardless of LLM reasoning. We propose Temporal-aware Matryoshka Representation Learning (TMRL), an efficient method that equips retrievers with temporal-aware Matryoshka embeddings. TMRL leverages the nested structure of Matryoshka embeddings to introduce a temporal subspace, enhancing temporal encoding while preserving general semantic representations. Experiments show that TMRL efficiently adapts diverse text embedding models, achieving competitive temporal retrieval and temporal RAG performance compared to prior Matryoshka-based non-temporal methods and prior temporal methods, while enabling flexible accuracy-efficiency trade-offs.
- Abstract(参考訳): レトリバーは、一時的検索・拡張生成(RAG)システムにおいて重要なボトルネックであり、時間的に関連するコンテキストの取得に失敗した場合、LCMの推論に関わらず、下流生成を劣化させる可能性がある。
本稿では,TMRL (Tororal-aware Matryoshka Representation Learning) を提案する。
TMRLは、Matryoshka埋め込みのネスト構造を利用して、時間的部分空間を導入し、一般的な意味表現を維持しながら、時間的エンコーディングを強化する。
実験により,TMRLは多種多様なテキスト埋め込みモデルに効率よく適応し,従来のマトリオシュカをベースとした非時間的手法や時間的手法と比較して競合時間的検索と時間的RAG性能を実現し,柔軟な精度・効率のトレードオフを可能にした。
関連論文リスト
- MemoTime: Memory-Augmented Temporal Knowledge Graph Enhanced Large Language Model Reasoning [22.89546852658161]
時間的知識グラフは時間的推論の信頼できる情報源を提供する。
既存の TKG ベースの LLM 推論手法は、4つの大きな課題に苦慮している。
メモリ拡張時間知識グラフフレームワークであるMemoTimeを提案する。
論文 参考訳(メタデータ) (2025-10-15T14:43:31Z) - Temporal Information Retrieval via Time-Specifier Model Merging [9.690250070561461]
Time-Specifier Model Merging (TSM) は、非時間的クエリの精度を維持しながら時間的検索を強化する新しい手法である。
時間的および非時間的データセットの大規模な実験により、TSMは時間的制約のあるクエリのパフォーマンスを著しく改善することが示された。
論文 参考訳(メタデータ) (2025-07-09T12:16:11Z) - StPR: Spatiotemporal Preservation and Routing for Exemplar-Free Video Class-Incremental Learning [79.44594332189018]
CIL(Class-Incremental Learning)は、以前取得した知識を使わずに、時間とともに新しいアクションカテゴリを継続的に学習するモデルの開発を目指している。
既存のアプローチでは、メモリとプライバシに関する懸念を忘れたり、あるいは時間的モデリングを無視する静的なイメージベースのメソッドを適用したりする。
本稿では,情報を明示的に切り離して保存する,統一的で非定型なVCILフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T06:46:51Z) - MRAG: A Modular Retrieval Framework for Time-Sensitive Question Answering [3.117448929160824]
大規模言語モデル(LLM)を用いた質問応答システムにおいて,時間的関係と応答時間に敏感な質問
我々は、時間的摂動と金のエビデンスラベルを組み込むことで、既存のデータセットを再利用するTempRAGEvalベンチマークを導入する。
TempRAGEvalでは、MRAGが検索性能においてベースラインレトリバーを著しく上回り、最終回答精度がさらに向上した。
論文 参考訳(メタデータ) (2024-12-20T03:58:27Z) - Multi-Patch Prediction: Adapting LLMs for Time Series Representation
Learning [22.28251586213348]
aLLM4TSは、時系列表現学習にLarge Language Models(LLM)を適用する革新的なフレームワークである。
われわれのフレームワークの特筆すべき要素はパッチワイドデコーディング層である。
論文 参考訳(メタデータ) (2024-02-07T13:51:26Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。