論文の概要: Length-Adaptive Interest Network for Balancing Long and Short Sequence Modeling in CTR Prediction
- arxiv url: http://arxiv.org/abs/2601.19142v1
- Date: Tue, 27 Jan 2026 03:14:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.152406
- Title: Length-Adaptive Interest Network for Balancing Long and Short Sequence Modeling in CTR Prediction
- Title(参考訳): CTR予測における長短連続モデリングのための長適応利子ネットワーク
- Authors: Zhicheng Zhang, Zhaocheng Du, Jieming Zhu, Jiwei Tang, Fengyuan Lu, Wang Jiaheng, Song-Li Wu, Qianhui Zhu, Jingyu Li, Hai-Tao Zheng, Zhenhua Dong,
- Abstract要約: LAINは、長いシーケンスと短いシーケンスのモデリングのバランスをとるために、シーケンス長を条件信号として組み込んだプラグアンドプレイフレームワークである。
私たちの仕事は、シーケンシャルなレコメンデーションにおいて、長さによるバイアスを軽減する、汎用的で効率的でデプロイ可能なソリューションを提供します。
- 参考スコア(独自算出の注目度): 50.094751096858204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User behavior sequences in modern recommendation systems exhibit significant length heterogeneity, ranging from sparse short-term interactions to rich long-term histories. While longer sequences provide more context, we observe that increasing the maximum input sequence length in existing CTR models paradoxically degrades performance for short-sequence users due to attention polarization and length imbalance in training data. To address this, we propose LAIN(Length-Adaptive Interest Network), a plug-and-play framework that explicitly incorporates sequence length as a conditioning signal to balance long- and short-sequence modeling. LAIN consists of three lightweight components: a Spectral Length Encoder that maps length into continuous representations, Length-Conditioned Prompting that injects global contextual cues into both long- and short-term behavior branches, and Length-Modulated Attention that adaptively adjusts attention sharpness based on sequence length. Extensive experiments on three real-world benchmarks across five strong CTR backbones show that LAIN consistently improves overall performance, achieving up to 1.15% AUC gain and 2.25% log loss reduction. Notably, our method significantly improves accuracy for short-sequence users without sacrificing longsequence effectiveness. Our work offers a general, efficient, and deployable solution to mitigate length-induced bias in sequential recommendation.
- Abstract(参考訳): 現代のレコメンデーションシステムにおけるユーザ行動シーケンスは、疎短な短期相互作用から豊富な長期履歴まで、かなりの長さの不均一性を示す。
より長いシーケンスがよりコンテキストを提供する一方で、既存のCTRモデルにおける最大入力シーケンス長の増加は、トレーニングデータにおける注意分極と長さ不均衡により、短周期ユーザの性能をパラドックス的に低下させる。
これを解決するために,Length-Adaptive Interest Network を提案する。Length-Adaptive Interest Network は,Long-Adaptive Interest Network とLong-Adaptive Interest Network の2つのフレームワークである。
LAINは、長さを連続表現にマッピングするスペクトル長エンコーダ(Spectral Length Encoder)、長期と短期の両方の行動枝にグローバルな文脈的手がかりを注入するLongth-Conditioned Prompting(Lngth-Conditioned Prompting)、シーケンス長に基づいて注目のシャープネスを適応的に調整するLngth-Modulated Attention(Lngth-Modulated Attention)の3つの軽量コンポーネントで構成されている。
5つの強力なCTRバックボーンにまたがる3つの実世界のベンチマークの大規模な実験により、LAINは一貫して全体的なパフォーマンスを改善し、最大1.15%のAUCゲインと2.25%のログ損失削減を達成した。
特に,提案手法は,長文効率を犠牲にすることなく,短文ユーザの精度を著しく向上させる。
私たちの仕事は、シーケンシャルなレコメンデーションにおいて、長さによるバイアスを軽減する、汎用的で効率的でデプロイ可能なソリューションを提供します。
関連論文リスト
- SIRI: Scaling Iterative Reinforcement Learning with Interleaved Compression [48.04180854972225]
大規模共振モデル(LRM)のための簡易かつ効果的なRLアプローチであるInterleaved Compressionを用いたSIRI(Scaling Iterative Reinforcement Learning)を導入する。
このトレードオフは、推理予算の圧縮と拡大を反復的に交互に交互に行う訓練体制によって克服できることを示す。
また, 各圧縮膨張サイクルの後に, 出力長が減少しても, モデルの性能が向上することがわかった。
論文 参考訳(メタデータ) (2025-09-29T17:59:08Z) - Beyond Fixed: Training-Free Variable-Length Denoising for Diffusion Large Language Models [74.15250326312179]
拡散大言語モデルは効率的な並列生成とグローバルモデリングを提供する。
DLLMの主流の応用は、静的に事前定義された生成長の必要性によって妨げられている。
DAEDALは,動的適応長拡張を可能にする新しい学習自由化戦略である。
論文 参考訳(メタデータ) (2025-08-01T17:56:07Z) - Breaking the Context Bottleneck on Long Time Series Forecasting [10.715175460720403]
長期の時系列予測は、経済、エネルギー、輸送における計画と意思決定に不可欠である。
最近の進歩によりこれらのモデルの効率は向上したが、より長いシーケンスを効果的に活用することの難しさは持続している。
長いシーケンスの効率的かつ効率的な処理を実現するために,Logsparse Decomposable Multiscaling (LDM) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-21T10:29:34Z) - Bidirectional Long-Range Parser for Sequential Data Understanding [3.76054468268713]
BLRP(Bidirectional Long-Range)は,長距離タスクの性能向上と効率向上を目的とした,新規で汎用的なアテンション機構である。
我々は、最先端の手法に対する競争結果を示すことによって、ビジョンと言語ドメインに対するアプローチの利点と汎用性を示す。
論文 参考訳(メタデータ) (2024-04-08T05:45:03Z) - LongNet: Scaling Transformers to 1,000,000,000 Tokens [146.4077038371075]
LongNetはTransformerの変種で、シーケンス長を10億以上のトークンに拡張できる。
我々の研究は、例えば、コーパス全体やインターネット全体をシーケンスとして扱うなど、非常に長いシーケンスをモデリングする新たな可能性を開く。
論文 参考訳(メタデータ) (2023-07-05T17:59:38Z) - Long Short-Term Transformer for Online Action Detection [96.23884916995978]
Long Short-term TRansformer (LSTR) はオンライン行動検出のための新しい時間的モデリングアルゴリズムである。
以前の研究と比較すると、LSTRはアルゴリズム設計の少ない長編動画を効果的かつ効率的にモデル化する方法を提供する。
論文 参考訳(メタデータ) (2021-07-07T17:49:51Z) - Informer: Beyond Efficient Transformer for Long Sequence Time-Series
Forecasting [25.417560221400347]
長周期時系列予測(LSTF)は高い予測能力を必要とする。
最近の研究は、予測能力を高めるトランスフォーマーの可能性を示しています。
我々は3つの特徴を有するlstf用効率的なトランスフォーマーモデル,informerを設計した。
論文 参考訳(メタデータ) (2020-12-14T11:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。