論文の概要: ManCAR: Manifold-Constrained Latent Reasoning with Adaptive Test-Time Computation for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2602.20093v1
- Date: Mon, 23 Feb 2026 18:02:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.939395
- Title: ManCAR: Manifold-Constrained Latent Reasoning with Adaptive Test-Time Computation for Sequential Recommendation
- Title(参考訳): ManCAR: 逐次レコメンデーションのための適応的テスト時間計算を用いたマニフォールド制約潜時推論
- Authors: Kun Yang, Yuxuan Zhu, Yazhe Chen, Siyao Zheng, Bangyang Hong, Kangle Wu, Yabo Ni, Anxiang Zeng, Cong Fu, Hui Li,
- Abstract要約: シークエンシャルレコメンデーションは、テスト時間計算を強化するために、遅延多段階推論をますます採用している。
我々は,グローバルな相互作用グラフのトポロジ内での推論を基礎とする,原則的フレームワークであるManCARを提案する。
ManCARは最先端のベースラインを一貫して上回り、NDCG@10で46.88%の相対的な改善を達成している。
- 参考スコア(独自算出の注目度): 13.234460652179022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential recommendation increasingly employs latent multi-step reasoning to enhance test-time computation. Despite empirical gains, existing approaches largely drive intermediate reasoning states via target-dominant objectives without imposing explicit feasibility constraints. This results in latent drift, where reasoning trajectories deviate into implausible regions. We argue that effective recommendation reasoning should instead be viewed as navigation on a collaborative manifold rather than free-form latent refinement. To this end, we propose ManCAR (Manifold-Constrained Adaptive Reasoning), a principled framework that grounds reasoning within the topology of a global interaction graph. ManCAR constructs a local intent prior from the collaborative neighborhood of a user's recent actions, represented as a distribution over the item simplex. During training, the model progressively aligns its latent predictive distribution with this prior, forcing the reasoning trajectory to remain within the valid manifold. At test time, reasoning proceeds adaptively until the predictive distribution stabilizes, avoiding over-refinement. We provide a variational interpretation of ManCAR to theoretically validate its drift-prevention and adaptive test-time stopping mechanisms. Experiments on seven benchmarks demonstrate that ManCAR consistently outperforms state-of-the-art baselines, achieving up to a 46.88% relative improvement w.r.t. NDCG@10. Our code is available at https://github.com/FuCongResearchSquad/ManCAR.
- Abstract(参考訳): シークエンシャルレコメンデーションは、テスト時間計算を強化するために、遅延多段階推論をますます採用している。
経験的な利益にもかかわらず、既存のアプローチは、明示的な実現可能性の制約を課すことなく、ターゲット支配的な目的を通じて中間的推論状態を促進する。
この結果、遅延漂流が起こり、そこでは軌道は不明瞭な領域へと逸脱する。
我々は、効果的なレコメンデーション推論は、自由形式潜在改善ではなく、協調多様体上のナビゲーションと見なされるべきであると主張する。
この目的のために,グローバルな相互作用グラフのトポロジ内での推論を基礎とする基本的フレームワークであるManCAR(Manifold-Constrained Adaptive Reasoning)を提案する。
ManCARは、ユーザの最近のアクションのコラボレーティブな近傍から、アイテムの単純さ上の分布として表現されたローカルインテントを構築する。
訓練中、モデルはその潜在予測分布をこの先行値と漸進的に整列し、推論軌道は有効な多様体内に留まらざるを得ない。
テスト時に、推理は予測分布が安定するまで適応的に進行し、過剰なリファインメントを避ける。
我々は,そのドリフト防止機構と適応テスト時間停止機構を理論的に検証するために,ManCARの変分解釈を提供する。
7つのベンチマークの実験では、ManCARは最先端のベースラインを一貫して上回り、NDCG@10.4.88%の相対的な改善を達成している。
私たちのコードはhttps://github.com/FuCongResearchSquad/ManCARで利用可能です。
関連論文リスト
- Reinforced Efficient Reasoning via Semantically Diverse Exploration [73.41112984160992]
検証可能な報酬(RLVR)による強化学習は,大規模言語モデル(LLM)の推論の強化に有効であることが証明された。
本研究では,LLMのための意味的多様性探索,すなわちROSEによる効率的な推論手法を提案する。
本手法は,意味エントロピーに基づく分岐戦略と$varepsilon$-exploration機構を組み込んだものである。
論文 参考訳(メタデータ) (2026-01-08T15:56:44Z) - ResAD: Normalized Residual Trajectory Modeling for End-to-End Autonomous Driving [64.42138266293202]
ResADは正規化された残留軌道モデリングフレームワークである。
学習タスクを再編成し、慣性参照からの残留偏差を予測する。
NAVSIMベンチマークでは、ResADはバニラ拡散ポリシーを用いて最先端のPDMS 88.6を達成している。
論文 参考訳(メタデータ) (2025-10-09T17:59:36Z) - The Lie of the Average: How Class Incremental Learning Evaluation Deceives You? [48.83567710215299]
クラスインクリメンタルラーニング(CIL)では、モデルが学習済みのクラスを忘れずに、新しいクラスを継続的に学習する必要がある。
我々は、ロバストなCIL評価プロトコルは、性能分布全体を正確に特徴付け、推定するべきであると論じる。
我々は,タスク間類似度を用いて,極端なクラスシーケンスを適応的に識別し,サンプリングする評価プロトコルEDGEを提案する。
論文 参考訳(メタデータ) (2025-09-26T17:00:15Z) - Backpropagation-Free Test-Time Adaptation via Probabilistic Gaussian Alignment [16.352863226512984]
テスト時間適応(TTA)は、推論中にラベルのないテストデータを活用することにより、分散シフト下でのゼロショットロバスト性を高める。
ほとんどのメソッドは、スケーラビリティを制限し、リアルタイムデプロイメントを妨げるバックプロパゲーションや反復最適化に依存しています。
本稿では,Advanced Distribution-AwareとBack propagation-free Test-time Adapting法であるADAPTを提案する。
論文 参考訳(メタデータ) (2025-08-21T13:42:49Z) - KV Cache Steering for Controlling Frozen LLMs [80.50365534625438]
キャッシュステアリングは、言語モデルの暗黙的なステアリングのための軽量な方法である。
キャッシュステアリングを応用して、小さな言語モデルにおける連鎖推論を誘導する。
論文 参考訳(メタデータ) (2025-07-11T17:59:36Z) - ODD: Overlap-aware Estimation of Model Performance under Distribution Shift [8.569585481097839]
以前の作業では、分散シフトの下で実際のエラー境界を導出するために、不一致不一致(DIS2)を使用していた。
オーバーラップ・アウェア・ディスレパンシー(ODD)を考案する
ODDベースのバウンダリはドメインオーバラップを推定するためにドメイン分類器を使用し、DIS2よりもターゲット性能を予測します。
論文 参考訳(メタデータ) (2025-06-17T21:05:42Z) - Rewarding the Unlikely: Lifting GRPO Beyond Distribution Sharpening [36.81125165911328]
強化学習は、言語モデルの推論能力を改善する主要な要因として現れています。
本稿では,現在の強化学習アルゴリズムが,すでに解いている問題に関するベースモデルの分布を単に研ぎ澄ましているだけかどうかを考察する。
差分報酬はランクバイアスを緩和し、合成定理と実定理の両方の証明設定において、多種多様な$N$でpass@N$を改善することを示す。
論文 参考訳(メタデータ) (2025-06-03T01:15:15Z) - Sparse Prototype Network for Explainable Pedestrian Behavior Prediction [60.80524827122901]
Sparse Prototype Network (SPN) は,歩行者の将来の行動,軌道,ポーズを同時に予測するための説明可能な手法である。
モノセマンティリティとクラスタリングの制約によって規則化されたプロトタイプは、一貫性と人間の理解可能な機能を学ぶ。
論文 参考訳(メタデータ) (2024-10-16T03:33:40Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。