論文の概要: Post-Training Fairness Control: A Single-Train Framework for Dynamic Fairness in Recommendation
- arxiv url: http://arxiv.org/abs/2601.20848v1
- Date: Wed, 28 Jan 2026 18:48:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:07.104088
- Title: Post-Training Fairness Control: A Single-Train Framework for Dynamic Fairness in Recommendation
- Title(参考訳): トレーニング後のフェアネスコントロール: 勧告における動的フェアネスのための単一トレインフレームワーク
- Authors: Weixin Chen, Li Chen, Yuhan Zhao,
- Abstract要約: Cofairはシングルトレインのフレームワークで、トレーニング後のフェアネスコントロールを推奨できる。
我々のフレームワークは様々なレベルで動的公正を提供し、最先端のベースラインよりも同等または優れた公正度精度曲線を提供する。
- 参考スコア(独自算出の注目度): 13.743015531030473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite growing efforts to mitigate unfairness in recommender systems, existing fairness-aware methods typically fix the fairness requirement at training time and provide limited post-training flexibility. However, in real-world scenarios, diverse stakeholders may demand differing fairness requirements over time, so retraining for different fairness requirements becomes prohibitive. To address this limitation, we propose Cofair, a single-train framework that enables post-training fairness control in recommendation. Specifically, Cofair introduces a shared representation layer with fairness-conditioned adapter modules to produce user embeddings specialized for varied fairness levels, along with a user-level regularization term that guarantees user-wise monotonic fairness improvements across these levels. We theoretically establish that the adversarial objective of Cofair upper bounds demographic parity and the regularization term enforces progressive fairness at user level. Comprehensive experiments on multiple datasets and backbone models demonstrate that our framework provides dynamic fairness at different levels, delivering comparable or better fairness-accuracy curves than state-of-the-art baselines, without the need to retrain for each new fairness requirement. Our code is publicly available at https://github.com/weixinchen98/Cofair.
- Abstract(参考訳): 推薦システムにおける不公平性を緩和する努力が増えているにもかかわらず、既存の公正を意識した手法は訓練時に公正性要件を修正し、訓練後の柔軟性を制限している。
しかし、現実のシナリオでは、様々な利害関係者が時間とともに異なる公正要件を要求する可能性があるため、異なる公正要件に対する再訓練は禁止される。
この制限に対処するために,コフェア(Cofair)を提案する。
特に、Cofairは、フェアネス条件付きアダプタモジュールを備えた共有表現層を導入し、様々なフェアネスレベルに特化したユーザ埋め込みと、これらのレベルにわたるユーザワイドモノトニックなフェアネスの改善を保証するユーザレベルの正規化用語を提供する。
理論的には、Cofair上界の対向目的が人口密度を同等にし、正規化用語がユーザレベルでの進歩的公正を強制する。
複数のデータセットとバックボーンモデルに関する総合的な実験は、我々のフレームワークが異なるレベルで動的公正を提供し、新しい公正要件ごとに再トレーニングすることなく、最先端のベースラインよりも同等またはより良い公平性曲線を提供することを示した。
私たちのコードはhttps://github.com/weixinchen98/Cofair.comで公開されています。
関連論文リスト
- FeDa4Fair: Client-Level Federated Datasets for Fairness Evaluation [5.195640929313995]
Federated Learning (FL)は、クライアントのプライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
クライアントにまたがる多様で、しばしば矛盾するバイアスは、公正性をモデル化する上で大きな課題をもたらします。
現在のフェアネス・エンハンシング FL ソリューションは、1つの、通常二進的、敏感な属性に対するバイアスを緩和する一方、現実世界の環境に存在する不均一なフェアネスのニーズを無視しているため、しばしば不足する。
論文 参考訳(メタデータ) (2025-06-26T08:43:12Z) - FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning [23.38141950440522]
我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
我々は,FedFACTが精度とグローバル・ローカル・フェアネスのバランスをとる上で,ベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-06-04T09:39:57Z) - FedTilt: Towards Multi-Level Fairness-Preserving and Robust Federated Learning [12.713572267830658]
textttFedTiltは、複数レベルの公正性を保ち、外れ値に対して堅牢な新しいFLである。
傾き値のチューニングが2段階の公平性を実現し、持続的なアウトレーラを緩和できることを示す。
論文 参考訳(メタデータ) (2025-03-15T19:57:23Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Fair Mixup: Fairness via Interpolation [28.508444261249423]
公平性制約を課すための新しいデータ拡張戦略であるfair mixupを提案する。
対象群間の補間標本の経路のモデルに正則化することで公平性が達成できることを示す。
ベンチマークにおける精度と公正度の測定の両面において,より優れた一般化を実現することを実証的に示す。
論文 参考訳(メタデータ) (2021-03-11T06:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。