論文の概要: Automatic Feature Fairness in Recommendation via Adversaries
- arxiv url: http://arxiv.org/abs/2309.15418v1
- Date: Wed, 27 Sep 2023 05:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 16:48:25.429825
- Title: Automatic Feature Fairness in Recommendation via Adversaries
- Title(参考訳): 広告主による勧告の自動特徴フェアネス
- Authors: Hengchang Hu, Yiming Cao, Zhankui He, Samson Tan, Min-Yen Kan
- Abstract要約: 多様なグループにまたがる公平な治療を実現する基盤として,機能フェアネスを提案する。
対人訓練による非偏見的特徴学習を導入する。
我々は2種類の特徴バイアスに基づいて自動的に敵に適応する。
- 参考スコア(独自算出の注目度): 29.454697779892662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is a widely discussed topic in recommender systems, but its
practical implementation faces challenges in defining sensitive features while
maintaining recommendation accuracy. We propose feature fairness as the
foundation to achieve equitable treatment across diverse groups defined by
various feature combinations. This improves overall accuracy through balanced
feature generalizability. We introduce unbiased feature learning through
adversarial training, using adversarial perturbation to enhance feature
representation. The adversaries improve model generalization for
under-represented features. We adapt adversaries automatically based on two
forms of feature biases: frequency and combination variety of feature values.
This allows us to dynamically adjust perturbation strengths and adversarial
training weights. Stronger perturbations are applied to feature values with
fewer combination varieties to improve generalization, while higher weights for
low-frequency features address training imbalances. We leverage the Adaptive
Adversarial perturbation based on the widely-applied Factorization Machine
(AAFM) as our backbone model. In experiments, AAFM surpasses strong baselines
in both fairness and accuracy measures. AAFM excels in providing item- and
user-fairness for single- and multi-feature tasks, showcasing their versatility
and scalability. To maintain good accuracy, we find that adversarial
perturbation must be well-managed: during training, perturbations should not
overly persist and their strengths should decay.
- Abstract(参考訳): フェアネスはレコメンデーションシステムにおいて広く議論されているトピックであるが、その実践的実装は、レコメンデーション精度を維持しながら、センシティブな特徴を定義するという課題に直面している。
本稿では,様々な特徴の組み合わせによって定義される多種多様なグループを対象とした公平な処理を実現する基盤として,機能フェアネスを提案する。
これにより、バランスの取れた特徴の一般化性を通じて全体的な精度が向上する。
特徴表現の強化のために, 逆摂動を用いて, 逆訓練による偏りのない特徴学習を導入する。
敵は、表現不足の特徴に対するモデル一般化を改善する。
我々は,2種類の特徴バイアス – 頻度と特徴値の組み合わせ – に基づいて,自動的に敵に適応する。
これにより、摂動強度と対向訓練重量を動的に調整できる。
一般化を改善するために、より少ない組み合わせの値に対してより強い摂動が適用され、一方低周波特性の重み付けはトレーニングの不均衡に対処する。
我々は、広く応用された因子化機械(AAFM)をバックボーンモデルとして活用する。
実験では、AFMは公正度と精度の両面で強い基準線を超える。
AAFMは、単一および多機能タスクに対するアイテムとユーザフェアネスを提供し、その汎用性とスケーラビリティを示している。
訓練中、摂動は過度に持続しすぎず、その強度は低下する。
関連論文リスト
- Class-attribute Priors: Adapting Optimization to Heterogeneity and
Fairness Objective [54.33066660817495]
現代の分類問題は、個々のクラスにまたがって不均一性を示す。
本稿では,クラス固有の学習戦略を効果的かつ汎用的に生成するCAPを提案する。
CAPは先行技術と競合しており、その柔軟性により、バランスの取れた精度以上の公平性目標に対する明確なメリットが期待できる。
論文 参考訳(メタデータ) (2024-01-25T17:43:39Z) - Annealing Self-Distillation Rectification Improves Adversarial Training [0.10241134756773226]
我々は、ロバストモデルの特徴を分析し、ロバストモデルがよりスムーズでよく校正された出力を生成する傾向があることを特定する。
より優れた誘導機構としてソフトラベルを生成するアニーリング自己蒸留法を提案する。
我々は、広範囲な実験とデータセット間の強力なパフォーマンスを通して、ADRの有効性を実証する。
論文 参考訳(メタデータ) (2023-05-20T06:35:43Z) - ARBEx: Attentive Feature Extraction with Reliability Balancing for Robust Facial Expression Learning [5.648318448953635]
ARBExはVision Transformerによって駆動される新しい注意的特徴抽出フレームワークである。
ラベル分布とマルチヘッド自己保持機構を備えた埋め込み空間において学習可能なアンカーポイントを用いて、弱い予測に対する性能を最適化する。
我々の戦略は、様々な文脈で実施された広範な実験により、現在の最先端の方法論よりも優れています。
論文 参考訳(メタデータ) (2023-05-02T15:10:01Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Learning Sample Reweighting for Accuracy and Adversarial Robustness [15.591611864928659]
本稿では,クラス条件付きマージンの概念に基づいて,個々のトレーニングサンプルによる損失の軽減を学習する,新たな逆トレーニングフレームワークを提案する。
我々の手法は、関連する手法や最先端のベースラインと比較して、クリーンかつ堅牢な精度を一貫して改善する。
論文 参考訳(メタデータ) (2022-10-20T18:25:11Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Leveraging Expert Guided Adversarial Augmentation For Improving
Generalization in Named Entity Recognition [50.85774164546487]
名前付きエンティティ認識(NER)システムは、しばしば分散データに対して優れた性能を示すが、シフトした分布から引き出された例では性能が良くない。
本稿では、専門家誘導型を利用してエンティティトークンとその周辺状況を変更することにより、そのエンティティタイプを敵攻撃として変更することを提案する。
その結果、2003年のCoNLLで訓練された最先端のNERシステムは、我々の挑戦的なセットで劇的に性能を低下させることがわかった。
論文 参考訳(メタデータ) (2022-03-21T01:21:12Z) - Push Stricter to Decide Better: A Class-Conditional Feature Adaptive
Framework for Improving Adversarial Robustness [18.98147977363969]
本稿では,自然データと逆例を対象とする特徴適応学習(Feature Adaptive Adversarial Training, FAAT)を提案する。
FAATはより差別的な特徴を生み出し、最先端の手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2021-12-01T07:37:56Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。