論文の概要: Efficient Temporal-aware Matryoshka Adaptation for Temporal Information Retrieval
- arxiv url: http://arxiv.org/abs/2601.05549v1
- Date: Fri, 09 Jan 2026 06:01:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.859041
- Title: Efficient Temporal-aware Matryoshka Adaptation for Temporal Information Retrieval
- Title(参考訳): 時間情報検索のための時間認識型マトリルシュカ適応法
- Authors: Tuan-Luc Huynh, Weiqing Wang, Trung Le, Thuy-Trang Vu, Dragan Gašević, Yuan-Fang Li, Thanh-Toan Do,
- Abstract要約: TMRL(Talal-Aware Matryoshka Representation Learning)は,TMRL(Taloral-Aware Matryoshka Representation Learning)の略で,TMRL(Taloral-Aware Matryoshka Representation Learning)の略である。
TMRLは多様なテキスト埋め込みモデルに効率よく適応し、競合する時間的検索と時間的RAG性能を実現する。
- 参考スコア(独自算出の注目度): 40.416646294035786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrievers are a key bottleneck in Temporal Retrieval-Augmented Generation (RAG) systems: failing to retrieve temporally relevant context can degrade downstream generation, regardless of LLM reasoning. We propose Temporal-aware Matryoshka Representation Learning (TMRL), an efficient method that equips retrievers with temporal-aware Matryoshka embeddings. TMRL leverages the nested structure of Matryoshka embeddings to introduce a temporal subspace, enhancing temporal encoding while preserving general semantic representations. Experiments show that TMRL efficiently adapts diverse text embedding models, achieving competitive temporal retrieval and temporal RAG performance compared to prior Matryoshka-based non-temporal methods and prior temporal methods, while enabling flexible accuracy-efficiency trade-offs.
- Abstract(参考訳): レトリバーは、一時的検索・拡張生成(RAG)システムにおいて重要なボトルネックであり、時間的に関連するコンテキストの取得に失敗した場合、LCMの推論に関わらず、下流生成を劣化させる可能性がある。
本稿では,TMRL (Tororal-aware Matryoshka Representation Learning) を提案する。
TMRLは、Matryoshka埋め込みのネスト構造を利用して、時間的部分空間を導入し、一般的な意味表現を維持しながら、時間的エンコーディングを強化する。
実験により,TMRLは多種多様なテキスト埋め込みモデルに効率よく適応し,従来のマトリオシュカをベースとした非時間的手法や時間的手法と比較して競合時間的検索と時間的RAG性能を実現し,柔軟な精度・効率のトレードオフを可能にした。
関連論文リスト
- TS-Haystack: A Multi-Scale Retrieval Benchmark for Time Series Language Models [4.387988928531881]
時系列言語モデル(TSLM)は、自然言語における連続的な信号の推論のための統一モデルとして登場している。
既存のモデルは通常、短いシーケンスでトレーニングされ、評価されるが、現実の時系列センサーストリームは数百万のデータポイントにまたがる。
TS-Haystackは4つのカテゴリにまたがる10のタスクタイプからなる長期コンテキストの時間的評価ベンチマークである。
論文 参考訳(メタデータ) (2026-02-15T15:50:02Z) - MEMTS: Internalizing Domain Knowledge via Parameterized Memory for Retrieval-Free Domain Adaptation of Time Series Foundation Models [51.506429027626005]
Memory for Time Series (MEMTS) は、時系列予測における検索不要領域適応のための軽量かつプラグアンドプレイ方式である。
MEMTSの鍵となるコンポーネントは知識永続化モジュール(KPM)であり、ドメイン固有の時間力学を内部化する。
このパラダイムシフトにより、MEMTSは定数時間推論とニアゼロレイテンシによる正確なドメイン適応を実現することができる。
論文 参考訳(メタデータ) (2026-02-14T14:00:06Z) - RAG without Forgetting: Continual Query-Infused Key Memory [27.597076561986594]
Evolving Retrieval Memory (ERM) は、過渡的なクエリ時間ゲインを永続的な検索改善に変換する、トレーニング不要のフレームワークである。
ERMは、正しさに制限されたフィードバックを通じて検索インデックスを更新し、アトミック拡張信号を選択的にそれらが有益であるドキュメントキーに属性付け、安定でノルムバウンドな更新を通じてキーを段階的に進化させる。
我々は,クエリとキー拡張が理論的に標準的な類似関数の下で等価であることを示し,ERMの選択的更新の収束を証明し,最適なクエリ拡張を推論時間オーバーヘッドゼロの安定インデックスに補正することを示した。
論文 参考訳(メタデータ) (2026-02-05T00:12:45Z) - SpatCode: Rotary-based Unified Encoding Framework for Efficient Spatiotemporal Vector Retrieval [24.77802224063016]
本稿では,時間的,空間的,意味的類似性を統合した統合ベクトル検索フレームワークを提案する。
我々のフレームワークは、検索精度と効率の両方において、ベースラインを大幅に上回っている。
これらの結果は、インテリジェントシステムにおけるスケーラブルな時間情報検索における提案手法の有効性を浮き彫りにする。
論文 参考訳(メタデータ) (2026-01-14T14:53:06Z) - MemoTime: Memory-Augmented Temporal Knowledge Graph Enhanced Large Language Model Reasoning [22.89546852658161]
時間的知識グラフは時間的推論の信頼できる情報源を提供する。
既存の TKG ベースの LLM 推論手法は、4つの大きな課題に苦慮している。
メモリ拡張時間知識グラフフレームワークであるMemoTimeを提案する。
論文 参考訳(メタデータ) (2025-10-15T14:43:31Z) - Temporal Information Retrieval via Time-Specifier Model Merging [9.690250070561461]
Time-Specifier Model Merging (TSM) は、非時間的クエリの精度を維持しながら時間的検索を強化する新しい手法である。
時間的および非時間的データセットの大規模な実験により、TSMは時間的制約のあるクエリのパフォーマンスを著しく改善することが示された。
論文 参考訳(メタデータ) (2025-07-09T12:16:11Z) - Maximally-Informative Retrieval for State Space Model Generation [59.954191072042526]
テスト時に特定のクエリに対するモデル不確実性を最小化するために、Retrieval In-Context Optimization (RICO)を導入する。
文書検索に外部に依存した従来の検索強化生成(RAG)とは異なり,本手法はモデルから直接のフィードバックを利用する。
モデル勾配を用いた標準のトップ$kの検索は、最適化手順を近似し、残余損失への接続を提供することを示す。
論文 参考訳(メタデータ) (2025-06-13T18:08:54Z) - StPR: Spatiotemporal Preservation and Routing for Exemplar-Free Video Class-Incremental Learning [79.44594332189018]
CIL(Class-Incremental Learning)は、以前取得した知識を使わずに、時間とともに新しいアクションカテゴリを継続的に学習するモデルの開発を目指している。
既存のアプローチでは、メモリとプライバシに関する懸念を忘れたり、あるいは時間的モデリングを無視する静的なイメージベースのメソッドを適用したりする。
本稿では,情報を明示的に切り離して保存する,統一的で非定型なVCILフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T06:46:51Z) - MRAG: A Modular Retrieval Framework for Time-Sensitive Question Answering [3.117448929160824]
大規模言語モデル(LLM)を用いた質問応答システムにおいて,時間的関係と応答時間に敏感な質問
我々は、時間的摂動と金のエビデンスラベルを組み込むことで、既存のデータセットを再利用するTempRAGEvalベンチマークを導入する。
TempRAGEvalでは、MRAGが検索性能においてベースラインレトリバーを著しく上回り、最終回答精度がさらに向上した。
論文 参考訳(メタデータ) (2024-12-20T03:58:27Z) - Multi-Patch Prediction: Adapting LLMs for Time Series Representation
Learning [22.28251586213348]
aLLM4TSは、時系列表現学習にLarge Language Models(LLM)を適用する革新的なフレームワークである。
われわれのフレームワークの特筆すべき要素はパッチワイドデコーディング層である。
論文 参考訳(メタデータ) (2024-02-07T13:51:26Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。