論文の概要: Linear-PAL: A Lightweight Ranker for Mitigating Shortcut Learning in Personalized, High-Bias Tabular Ranking
- arxiv url: http://arxiv.org/abs/2602.00013v1
- Date: Mon, 15 Dec 2025 12:06:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.192754
- Title: Linear-PAL: A Lightweight Ranker for Mitigating Shortcut Learning in Personalized, High-Bias Tabular Ranking
- Title(参考訳): リニアPAL:パーソナライズされたハイバイアスタブラルランキングにおけるショートカット学習の軽減のための軽量ランサー
- Authors: Vipul Dinesh Pawar,
- Abstract要約: eコマースランキングでは、暗黙のユーザーフィードバックはPlace Biasによって体系的に構築される。
構造的制約を通した非バイアス化を実現する軽量なフレームワークを提案する。
また,Linear-PALがほぼリアルタイムで,ロバストでパーソナライズされたランキングを実現することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In e-commerce ranking, implicit user feedback is systematically confounded by Position Bias -- the strong propensity of users to interact with top-ranked items regardless of relevance. While Deep Learning architectures (e.g., Two-Tower Networks) are the standard solution for de-biasing, we demonstrate that in High-Bias Regimes, state-of-the-art Deep Ensembles suffer from Shortcut Learning: they minimize training loss by overfitting to the rank signal, leading to degraded ranking quality despite high prediction accuracy. We propose Linear Position-bias Aware Learning (Linear-PAL), a lightweight framework that enforces de-biasing through structural constraints: explicit feature conjunctions and aggressive regularization. We further introduce a Vectorized Integer Hashing technique for feature generation, replacing string-based operations with $O(N)$ vectorized arithmetic. Evaluating on a large-scale dataset (4.2M samples), Linear-PAL achieves Pareto Dominance: it outperforms Deep Ensembles in de-biased ranking quality (Relevance AUC: 0.7626 vs. 0.6736) while reducing training latency by 43x (40s vs 1762s). This computational efficiency enables high-frequency retraining, allowing the system to capture user-specific emerging market trends and deliver robust, personalized ranking in near real-time.
- Abstract(参考訳): 電子商取引ランキングでは、暗黙のユーザーフィードバックは、ポジションバイアスによって体系的に構築される。
ディープ・ラーニング・アーキテクチャ(例えば、ツー・トワー・ネットワーク)はバイアス除去の標準的なソリューションであるが、ハイバイアス・レジームでは最先端のディープ・アンサンブルがショートカット・ラーニングに悩まされている。
本稿では,構造的制約を通した非バイアス化を実現する軽量フレームワークである線形位置バイアス認識学習(Linear-PAL)を提案する。
さらに,文字列ベースの演算を$O(N)$ベクトル化演算に置き換え,特徴生成のためのベクトル化整数ハッシュ手法を導入する。
大規模なデータセット(4.2Mサンプル)に基づいて、Linear-PALはPareto Dominanceを実現している。これは、非バイアスのランク品質(Relevance AUC: 0.7626 vs. 0.6736)でDeep Ensemblesを上回り、トレーニングレイテンシを43倍(40s vs. 1762s)削減する。
この計算効率は、高頻度の再トレーニングを可能にし、ユーザ固有の新興市場トレンドをキャプチャし、ほぼリアルタイムでロバストでパーソナライズされたランキングを提供する。
関連論文リスト
- Dynamic Rank Reinforcement Learning for Adaptive Low-Rank Multi-Head Self Attention in Large Language Models [0.0]
大規模言語モデル(LLM)におけるマルチヘッド自己認識(MHSA)の低ランク分解を適応的に最適化する新しいフレームワークである動的ランク強化学習(DR-RL)を提案する。
DR-RLは、浮動小数点演算(FLOP)を著しく低減しつつ、フルランクアテンションと統計的に等価な下流精度を維持している
この研究は、MHSAの適応効率と理論的厳密さのギャップを埋め、リソース制約の深層学習におけるランク低減技術に代えて、原理的に数学的に基礎付けられた代替手段を提供する。
論文 参考訳(メタデータ) (2025-12-17T21:09:19Z) - Feedback Alignment Meets Low-Rank Manifolds: A Structured Recipe for Local Learning [7.034739490820967]
バックプロパゲーション(BP)を用いたディープニューラルネットワーク(DNN)のトレーニングは、最先端の精度を実現するが、大域的なエラー伝搬と完全なパラメータ化が必要である。
ダイレクトフィードバックアライメント(DFA)は、メモリ要件の低いローカルで並列化可能な更新を可能にする。
低ランク多様体上で直接動作する構造化局所学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-29T15:03:46Z) - LLMs for estimating positional bias in logged interaction data [44.839172857330674]
大規模言語モデル(LLM)を用いた位置バイアス推定手法を提案する。
実験の結果, LLM-as-a-judge法で推定した確率は, スコアバケット間で安定であることがわかった。
IPSでトレーニングされたリランカーは、標準のNDCG@10で生産モデルと一致し、重み付けされたNDCG@10を約2%改善した。
論文 参考訳(メタデータ) (2025-09-03T20:26:06Z) - RewardRank: Optimizing True Learning-to-Rank Utility [28.662272762911325]
本稿では,RewardRankを紹介した。
この結果から, 対実的ユーティリティの直接最適化として, 学習からランクへの変換が可能であることが示唆された。
論文 参考訳(メタデータ) (2025-08-19T18:08:35Z) - Optimizing Preference Alignment with Differentiable NDCG Ranking [9.594183083553245]
近年の研究では、嗜好学習の理論的願望と実際の結果との間にかなりの相違が明らかになっている。
本稿では、人間の嗜好調整を学習から学習までのタスクとみなす新しい手法である、アンダーラインDirectアンダーラインランキングアンダーライン最適化(O)を提案する。
論文 参考訳(メタデータ) (2024-10-17T08:54:57Z) - Meta-Learning Adversarial Bandit Algorithms [55.72892209124227]
我々は,バンディットフィードバックを用いたオンラインメタラーニングについて研究する。
我々は自己協和障壁正規化器を用いてオンラインミラー降下一般化(OMD)をチューニングすることを学ぶ。
論文 参考訳(メタデータ) (2023-07-05T13:52:10Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Accelerated Convergence for Counterfactual Learning to Rank [65.63997193915257]
IPS重み付き勾配を持つSGD手法の収束速度は、IPS重みによる大きなばらつきに悩まされることを示す。
本稿では,従来のIPS重み付け勾配降下法よりも優れた収束性を有する新しい学習アルゴリズムであるCounterSampleを提案する。
我々は、CounterSampleがより早く収束し、理論的な結果と経験的な結果とを補完することを証明する。
論文 参考訳(メタデータ) (2020-05-21T12:53:36Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。