論文の概要: Why is Normalization Necessary for Linear Recommenders?
- arxiv url: http://arxiv.org/abs/2504.05805v1
- Date: Tue, 08 Apr 2025 08:37:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:28:05.874797
- Title: Why is Normalization Necessary for Linear Recommenders?
- Title(参考訳): リニアレコメンダの正規化はなぜ必要か?
- Authors: Seongmin Park, Mincheol Yoon, Hye-young Kim, Jongwuk Lee,
- Abstract要約: 本稿では,データ正規化(DAN)と呼ばれる多目的正規化ソリューションを提案する。
実験結果から,DANを組み込んだRAEは6つのベンチマークデータセットにわたって,既存のRAEベースモデルを一貫して改善していることがわかった。
- 参考スコア(独自算出の注目度): 10.843794863154391
- License:
- Abstract: Despite their simplicity, linear autoencoder (LAE)-based models have shown comparable or even better performance with faster inference speed than neural recommender models. However, LAEs face two critical challenges: (i) popularity bias, which tends to recommend popular items, and (ii) neighborhood bias, which overly focuses on capturing local item correlations. To address these issues, this paper first analyzes the effect of two existing normalization methods for LAEs, i.e., random-walk and symmetric normalization. Our theoretical analysis reveals that normalization highly affects the degree of popularity and neighborhood biases among items. Inspired by this analysis, we propose a versatile normalization solution, called Data-Adaptive Normalization (DAN), which flexibly controls the popularity and neighborhood biases by adjusting item- and user-side normalization to align with unique dataset characteristics. Owing to its model-agnostic property, DAN can be easily applied to various LAE-based models. Experimental results show that DAN-equipped LAEs consistently improve existing LAE-based models across six benchmark datasets, with significant gains of up to 128.57% and 12.36% for long-tail items and unbiased evaluations, respectively. Refer to our code in https://github.com/psm1206/DAN.
- Abstract(参考訳): その単純さにもかかわらず、線形オートエンコーダ(LAE)ベースのモデルは、ニューラルレコメンデータモデルよりも高速な推論速度で同等またはそれ以上の性能を示している。
しかし、LAEは2つの重要な課題に直面している。
(i)人気項目を推薦する傾向のある人気バイアス、
(ii)地区バイアスは,局所的な項目相関の取得に過度に焦点をあてる。
これらの問題に対処するために,本稿ではまず,LAEに対する2つの既存の正規化手法,すなわちランダムウォークと対称正規化の効果を解析する。
理論分析の結果,正規化はアイテム間の人気度や周辺バイアスに大きく影響していることが明らかとなった。
本研究では,データ適応正規化(Data-Adaptive Normalization,DAN)と呼ばれる汎用正規化手法を提案する。
モデルに依存しない性質のため、DANは様々なRAEモデルに容易に適用できる。
実験の結果、DAN搭載のRAEは6つのベンチマークデータセットで既存のRAEベースのモデルを一貫して改善し、それぞれ長い尾のアイテムと偏りのない評価で最大128.57%と12.36%の大幅な上昇を示した。
コードをhttps://github.com/psm1206/DANで参照してください。
関連論文リスト
- Rethinking Relation Extraction: Beyond Shortcuts to Generalization with a Debiased Benchmark [53.876493664396506]
ベンチマークは、機械学習アルゴリズムのパフォーマンスの評価、比較の促進、優れたソリューションの特定に不可欠である。
本稿では,関係抽出タスクにおけるエンティティバイアスの問題に対処する。
本稿では,エンティティの代替によって,エンティティ参照と関係型との擬似相関を破る不偏関係抽出ベンチマークDREBを提案する。
DREBの新たなベースラインを確立するために,データレベルとモデルトレーニングレベルを組み合わせたデバイアス手法であるMixDebiasを導入する。
論文 参考訳(メタデータ) (2025-01-02T17:01:06Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - RAZOR: Sharpening Knowledge by Cutting Bias with Unsupervised Text Rewriting [16.633948320306832]
手動で構築されたデータセットで一般的なバイアスは、トークンとラベルの間に急激な相関をもたらす可能性がある。
既存のデバイアス法は、しばしば特定のデータセットバイアスに関する事前の知識に依存している。
本稿では,ショートカット緩和のためのテキスト書き直しに基づく,新規で教師なし,データ重視のデバイアス処理手法であるRAZORを提案する。
論文 参考訳(メタデータ) (2024-12-10T17:02:58Z) - Aligning Large Language Models via Fine-grained Supervision [20.35000061196631]
事前訓練された大規模言語モデル(LLM)は、一貫性のある記事を生成するのに優れていますが、そのアウトプットは非現実的、有毒、あるいはユーザの期待に沿わないかもしれません。
現在のアプローチは、モデルアライメントを改善するために、人間のフィードバックによる強化学習を使うことに重点を置いている。
トークンレベルの微粒化によるLCMアライメント向上手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T20:21:45Z) - Self-Exploring Language Models: Active Preference Elicitation for Online Alignment [88.56809269990625]
本研究では, 分布域外領域を積極的に探索するために, 潜在的に高次応答に対して楽観的に偏りを呈する2段階的客観性を提案する。
実験の結果,Zephyr-7B-SFTとLlama-3-8B-Instructモデルで微調整した場合,SELM(Self-Exploring Language Models)は命令追従ベンチマークの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-29T17:59:07Z) - Going Beyond Popularity and Positivity Bias: Correcting for Multifactorial Bias in Recommender Systems [74.47680026838128]
ユーザインタラクションデータとレコメンダシステム(RS)の2つの典型的なバイアスは、人気バイアスと肯定バイアスである。
項目と評価値の双方に影響される多因子選択バイアスについて検討する。
分散を低減し、最適化の堅牢性を向上させるため、スムースで交互に勾配降下する手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T12:18:21Z) - Countering Mainstream Bias via End-to-End Adaptive Local Learning [17.810760161534247]
CF(Collaborative Filtering)ベースのレコメンデーションは、主流のバイアスに悩まされる。
主流ユーザとニッチユーザの両方に高品質なレコメンデーションを提供するために,新しいエンドツーエンド適応型ローカル学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-13T03:17:33Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Bilateral Self-unbiased Learning from Biased Implicit Feedback [10.690479112143658]
バイラテラル・セルフ・アンバイアスド・レコメンダ(BISER)という,新しいアンバイアスド・レコメンダラー・ラーニング・モデルを提案する。
BISERは、(i)自己逆確率重み付け(SIPW)と(ii)モデル予測における2つの相補的モデル間のギャップを埋める両側非バイアス学習(BU)の2つの重要な構成要素から構成される。
大規模な実験により、BISERは複数のデータセットに対して最先端の非バイアスのレコメンデータモデルより一貫して優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-26T05:17:42Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。