論文の概要: CRE-T1 Preview Technical Report: Beyond Contrastive Learning for Reasoning-Intensive Retrieval
- arxiv url: http://arxiv.org/abs/2603.17387v1
- Date: Wed, 18 Mar 2026 06:08:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.534516
- Title: CRE-T1 Preview Technical Report: Beyond Contrastive Learning for Reasoning-Intensive Retrieval
- Title(参考訳): CRE-T1テクニカルレポート:Reasoning-Intensive Retrievalのためのコントラスト学習を超えて
- Authors: Guangzhi Wang, Yinghao Jiao, Zhi Liu,
- Abstract要約: Thought 1 (T1) は、関連モデリングを静的アライメントから動的推論にシフトする生成的検索モデルである。
クエリ側では、T1 dy-namically は各クエリの中間的推論軌跡を生成し、推論関係を橋渡しする。
ドキュメント側では、高スループットインデックス作成をサポートするために、インストラクション+テキスト+エンコーディングフォーマットを使用する。
- 参考スコア(独自算出の注目度): 12.499799382649131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The central challenge of reasoning-intensive retrieval lies in identifying implicitreasoning relationships between queries and documents, rather than superficial se-mantic or lexical similarity. The contrastive learning paradigm is fundamentallya static representation consolidation technique: during training, it encodes hier-archical relevance concepts into fixed geometric structures in the vector space,and at inference time it cannot dynamically adjust relevance judgments accord-ing to the specific reasoning demands of each query. Consequently, performancedegrades noticeably when vocabulary mismatch exists between queries and doc-uments or when implicit reasoning is required to establish relevance. This pa-per proposes Thought 1 (T1), a generative retrieval model that shifts relevancemodeling from static alignment to dynamic reasoning. On the query side, T1 dy-namically generates intermediate reasoning trajectories for each query to bridgeimplicit reasoning relationships and uses <embtoken> as a semantic aggregationpoint for the reasoning output. On the document side, it employs an instruction+ text + <embtoken> encoding format to support high-throughput indexing. Tointernalize dynamic reasoning capabilities into vector representations, we adopt athree-stage training curriculum and introduce GRPO in the third stage, enablingthe model to learn optimal derivation strategies for different queries through trial-and-error reinforcement learning. On the BRIGHT benchmark, T1-4B exhibitsstrong performance under the original query setting, outperforming larger modelstrained with contrastive learning overall, and achieving performance comparableto multi-stage retrieval pipelines. The results demonstrate that replacing static rep-resentation alignment with dynamic reasoning generation can effectively improvereasoning-intensive retrieval performance.
- Abstract(参考訳): 推論集約的な検索の課題は、表面的なセマンティックや語彙的類似性ではなく、クエリとドキュメント間の暗黙的な関係を識別することにある。
訓練中、ベクトル空間の固定幾何構造に階層的関連概念を符号化し、推論時に各クエリの特定の推論要求に応じて関連判断を動的に調整することはできない。
その結果、クエリとドキュメントの間に語彙ミスマッチが存在する場合や、関連性を確立するために暗黙の推論が必要な場合、パフォーマンスが著しく低下する。
このパパーは、関係モデリングを静的アライメントから動的推論へシフトする生成的検索モデルであるThought 1 (T1)を提案する。
クエリ側では、T1 dy-namically は各クエリの中間的推論軌跡を生成して推論関係をブリッジし、推論出力のセマンティックアグリゲーションポイントとして<embtoken>を使用する。
ドキュメント側では、インデクシングをサポートするために、インストラクション+テキスト+<embtoken>エンコーディングフォーマットを使用している。
動的推論能力をベクトル表現にインターナライズするため、3段階のトレーニングカリキュラムを採用し、第3段階でGRPOを導入し、試行錯誤強化学習を通じて、異なるクエリに対する最適な導出戦略を学習できるようにする。
BRIGHTベンチマークでは、T1-4Bは、元のクエリ設定下での強いパフォーマンスを示し、対照的な学習全体でトレーニングされたより大きなモデルよりも優れ、マルチステージのパイプラインに匹敵するパフォーマンスを実現している。
その結果,静的再帰的アライメントを動的推論生成に置き換えることで,推論集約検索性能を効果的に向上できることが示唆された。
関連論文リスト
- Multi-Step Semantic Reasoning in Generative Retrieval [50.65947993017158]
生成検索(GR)モデルは、モデルパラメータ内のコーパスを符号化し、所定のクエリに対して関連するドキュメント識別子を生成する。
既存のGRモデルは、財務報告に対するセマンティック推論など、数値的な文脈で複雑なクエリに苦しむ。
GR内の数値文脈における多段階意味推論を強化するためのフレームワークであるReasonGRを提案する。
論文 参考訳(メタデータ) (2026-03-12T18:38:50Z) - Adaptive Retrieval helps Reasoning in LLMs -- but mostly if it's not used [19.370220750406755]
大規模言語モデル(LLM)は静的なパラメトリックな知識のため、複雑な推論タスクでしばしば失敗する。
この研究は、生成モデルを強化するための基本原理を探求し、動的文脈内学習の一形態として検索を扱います。
論文 参考訳(メタデータ) (2026-02-06T21:48:26Z) - SEAL: Self-Evolving Agentic Learning for Conversational Question Answering over Knowledge Graphs [28.59157823781425]
SEALは、自己進化型エージェント学習に基づく、2段階のセマンティックパーシングフレームワークである。
SEALは、特にマルチホップ推論、比較、集約タスクにおいて、最先端のパフォーマンスを達成する。
その結果, 構造精度と計算効率の両面で有意な向上が認められた。
論文 参考訳(メタデータ) (2025-12-04T14:52:30Z) - Adaptive Multi-Agent Reasoning for Text-to-Video Retrieval [12.701443847087164]
本稿では,複数の推論を繰り返して特殊エージェントを編成する適応型マルチエージェント検索フレームワークを提案する。
私たちのフレームワークは、CLIP4Clipよりも2倍の改善を実現し、最先端のメソッドを大きなマージンで大幅に上回ります。
論文 参考訳(メタデータ) (2025-12-02T09:52:51Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Enhancing Retrieval Systems with Inference-Time Logical Reasoning [9.526027847179677]
本稿では,論理的推論を検索プロセスに明示的に組み込む新しい推論時間論理的推論フレームワークを提案する。
提案手法は,自然言語クエリから論理的推論構造を抽出し,個々のコサイン類似度スコアを合成して最終文書スコアを定式化する。
論文 参考訳(メタデータ) (2025-03-22T20:40:18Z) - DOGR: Leveraging Document-Oriented Contrastive Learning in Generative Retrieval [10.770281363775148]
生成検索における文書指向コントラスト学習(DOGR)の活用という,新規で汎用的な生成検索フレームワークを提案する。
クエリとドキュメントの関係を,直接的なインタラクションを通じて包括的にキャプチャする,2段階の学習戦略を採用している。
意味表現の学習を促進するために、否定的サンプリング手法とそれに対応するコントラスト学習目的を実装した。
論文 参考訳(メタデータ) (2025-02-11T03:25:42Z) - CAPSTONE: Curriculum Sampling for Dense Retrieval with Document
Expansion [68.19934563919192]
本稿では,学習中に擬似クエリを利用して,生成したクエリと実際のクエリとの関係を徐々に向上させるカリキュラムサンプリング戦略を提案する。
ドメイン内およびドメイン外両方のデータセットに対する実験結果から,本手法が従来の高密度検索モデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-12-18T15:57:46Z) - High-order Semantic Role Labeling [86.29371274587146]
本稿では,ニューラルセマンティックロールラベリングモデルのための高階グラフ構造を提案する。
これにより、モデルは孤立述語-引数対だけでなく、述語-引数対間の相互作用も明示的に考慮することができる。
CoNLL-2009ベンチマークの7つの言語に対する実験結果から、高次構造学習技術は強力なSRLモデルに有益であることが示された。
論文 参考訳(メタデータ) (2020-10-09T15:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。