論文の概要: FairFS: Addressing Deep Feature Selection Biases for Recommender System
- arxiv url: http://arxiv.org/abs/2602.20001v1
- Date: Mon, 23 Feb 2026 16:08:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.896884
- Title: FairFS: Addressing Deep Feature Selection Biases for Recommender System
- Title(参考訳): FairFS:RecommenderシステムのためのDeep Feature Selection Biaseに対処
- Authors: Xianquan Wang, Zhaocheng Du, Jieming Zhu, Qinglin Jia, Zhenhua Dong, Kai Zhang,
- Abstract要約: 産業レコメンデーションシステムでは、下流モデルに関する情報を運ぶ際に重要な役割を果たす。
層バイアス,ベースラインバイアス,近似バイアスを緩和する,公平かつ正確な特徴選択アルゴリズムであるFairFSを提案する。
大規模な実験により、FairFSはこれらのバイアスを効果的に軽減し、最先端の機能選択性能を達成することが示された。
- 参考スコア(独自算出の注目度): 29.161438361171804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale online marketplaces and recommender systems serve as critical technological support for e-commerce development. In industrial recommender systems, features play vital roles as they carry information for downstream models. Accurate feature importance estimation is critical because it helps identify the most useful feature subsets from thousands of feature candidates for online services. Such selection enables improved online performance while reducing computational cost. To address feature selection problems in deep learning, trainable gate-based and sensitivity-based methods have been proposed and proven effective in industrial practice. However, through the analysis of real-world cases, we identified three bias issues that cause feature importance estimation to rely on partial model layers, samples, or gradients, ultimately leading to inaccurate importance estimation. We refer to these as layer bias, baseline bias, and approximation bias. To mitigate these issues, we propose FairFS, a fair and accurate feature selection algorithm. FairFS regularizes feature importance estimated across all nonlinear transformation layers to address layer bias. It also introduces a smooth baseline feature close to the classifier decision boundary and adopts an aggregated approximation method to alleviate baseline and approximation biases. Extensive experiments demonstrate that FairFS effectively mitigates these biases and achieves state-of-the-art feature selection performance.
- Abstract(参考訳): 大規模なオンラインマーケットプレイスやレコメンデーションシステムは、電子商取引開発にとって重要な技術支援となる。
産業レコメンデーションシステムでは、下流モデルに関する情報を運ぶ際に重要な役割を果たす。
正確な機能重要度推定は、オンラインサービスの何千もの機能候補から最も有用な機能サブセットを特定するのに役立つため、非常に重要である。
このような選択により、計算コストを削減しつつ、オンラインのパフォーマンスを向上させることができる。
深層学習における特徴選択問題に対処するために,訓練可能なゲートベースおよび感度ベース手法が提案され,工業的実践において有効であることが証明されている。
しかし,実世界の事例を分析した結果,特徴重要度推定は部分的モデル層,サンプル,勾配に依存し,最終的に不正確な重要度推定に繋がる3つのバイアス問題を同定した。
これをレイヤバイアス、ベースラインバイアス、近似バイアスと呼ぶ。
これらの問題を緩和するため、公正かつ正確な特徴選択アルゴリズムであるFairFSを提案する。
FairFSはすべての非線形変換層で推定される特徴の重要度を正規化し、層バイアスに対処する。
また、分類器決定境界に近い滑らかなベースライン機能を導入し、ベースラインと近似バイアスを緩和する集約近似法を採用する。
大規模な実験により、FairFSはこれらのバイアスを効果的に軽減し、最先端の機能選択性能を達成することが示された。
関連論文リスト
- Going Beyond Popularity and Positivity Bias: Correcting for Multifactorial Bias in Recommender Systems [74.47680026838128]
ユーザインタラクションデータとレコメンダシステム(RS)の2つの典型的なバイアスは、人気バイアスと肯定バイアスである。
項目と評価値の双方に影響される多因子選択バイアスについて検討する。
分散を低減し、最適化の堅牢性を向上させるため、スムースで交互に勾配降下する手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T12:18:21Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - ERASE: Benchmarking Feature Selection Methods for Deep Recommender Systems [40.838320650137625]
本稿では,Deep Recommender Systems(DRS)のためのフェースセレクションのための包括的bEnchmaRkであるERASEについて述べる。
ERASEは11種類の特徴選択手法を徹底的に評価し、従来のアプローチとディープラーニングアプローチの両方をカバーしている。
私たちのコードは簡単に再現できる。
論文 参考訳(メタデータ) (2024-03-19T11:49:35Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Preventing Discriminatory Decision-making in Evolving Data Streams [8.952662914331901]
機械学習のバイアスは、ここ10年で明らかに注目を集めている。
意思決定システムのバイアスに対処する最も公正な機械学習(fair-ML)は、オフライン設定のみに焦点を当てている。
オンラインシステムが現実世界で広く普及しているにもかかわらず、オンライン設定におけるバイアスを特定し修正する作業は極めて不十分である。
論文 参考訳(メタデータ) (2023-02-16T01:20:08Z) - How Biased are Your Features?: Computing Fairness Influence Functions
with Global Sensitivity Analysis [38.482411134083236]
機械学習の公正性は、ハイテイクな意思決定タスクに広く適用されているため、大きな焦点をあてている。
本稿では,各特徴の偏りを個々の特徴と複数の特徴の交叉に分解するFairness Influence Function (FIF)を紹介する。
実験により、FairXplainerは個々の特徴と交叉特徴のFIFをキャプチャし、FIFに基づくバイアスのより優れた近似を提供し、FIFと公平な介入の相関を高く示し、また、分類器における公正肯定的/疑似的行動によるバイアスの変化を検出する。
論文 参考訳(メタデータ) (2022-06-01T04:02:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。