論文の概要: Measuring Fairness in Large-Scale Recommendation Systems with Missing Labels
- arxiv url: http://arxiv.org/abs/2406.05247v1
- Date: Fri, 07 Jun 2024 20:14:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 22:38:22.149045
- Title: Measuring Fairness in Large-Scale Recommendation Systems with Missing Labels
- Title(参考訳): ラベルを欠いた大規模推薦システムにおける公正度の測定
- Authors: Yulong Dong, Kun Jin, Xinghai Hu, Yang Liu,
- Abstract要約: 大規模レコメンデーションシステムでは、多数のアイテムが製品ごとに正確なユーザの好みを把握できないため、ラベルの欠落がよくある問題となる。
それまでの手法では、これらのサンプルが欠落したラベルを負として扱うことが多かったが、これは真理の公平さの基準から大きく逸脱する可能性がある。
そこで本研究では,最小のランダム化トラフィックを用いてフェアネスの指標を正確に推定する手法を提案する。
- 参考スコア(独自算出の注目度): 8.921669180278274
- License:
- Abstract: In large-scale recommendation systems, the vast array of items makes it infeasible to obtain accurate user preferences for each product, resulting in a common issue of missing labels. Typically, only items previously recommended to users have associated ground truth data. Although there is extensive research on fairness concerning fully observed user-item interactions, the challenge of fairness in scenarios with missing labels remains underexplored. Previous methods often treat these samples missing labels as negative, which can significantly deviate from the ground truth fairness metrics. Our study addresses this gap by proposing a novel method employing a small randomized traffic to estimate fairness metrics accurately. We present theoretical bounds for the estimation error of our fairness metric and support our findings with empirical evidence on real data. Our numerical experiments on synthetic and TikTok's real-world data validate our theory and show the efficiency and effectiveness of our novel methods. To the best of our knowledge, we are the first to emphasize the necessity of random traffic in dataset collection for recommendation fairness, the first to publish a fairness-related dataset from TikTok and to provide reliable estimates of fairness metrics in the context of large-scale recommendation systems with missing labels.
- Abstract(参考訳): 大規模レコメンデーションシステムでは、多数のアイテムが製品ごとに正確なユーザの好みを把握できないため、ラベルの欠落がよくある問題となる。
通常、ユーザーに推奨されるアイテムは、接地真実データに関連付けられている。
完全に観察されたユーザとイテムの相互作用に関する公正性に関する広範な研究があるが、ラベルの欠如のあるシナリオにおける公平性の課題はいまだに解明されていない。
それまでの手法では、これらのサンプルが欠落したラベルを負として扱うことが多かったが、これは真理の公平さの基準から大きく逸脱する可能性がある。
本研究は,小ランダム化トラフィックを用いて,公正度を正確に推定する手法を提案することにより,このギャップを解消する。
フェアネス測定値の推定誤差に関する理論的境界を提示し、実データに関する実証的な証拠を得られた結果を支持する。
合成およびTikTokの実世界のデータに関する数値実験により、我々の理論を検証し、新しい手法の有効性と有効性を示す。
まず,TikTokからフェアネス関連データセットを初めて公開し,ラベルを欠いた大規模レコメンデーションシステムのコンテキストにおけるフェアネス指標の信頼性評価を行う。
関連論文リスト
- Data Distribution Valuation [56.71023681599737]
既存のデータバリュエーションメソッドは、離散データセットの値を定義します。
多くのユースケースでは、ユーザはデータセットの値だけでなく、データセットがサンプリングされた分布の値にも興味を持っています。
本稿では,理論的原理と実行可能なポリシを実現するための,MMDに基づく評価手法を提案する。
論文 参考訳(メタデータ) (2024-10-06T07:56:53Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Fair Active Learning in Low-Data Regimes [22.349886628823125]
機械学習の応用においては、社会的不平等の持続を避けるために公正性の確保が不可欠である。
本研究では,データスカース環境におけるバイアスの低減と精度向上という課題に対処する。
本稿では,後方サンプリングにインスパイアされた探索手法と,公平な分類サブルーチンを組み合わせた,革新的なアクティブラーニングフレームワークを提案する。
この枠組みは,確率の高い公正制約を満足しつつ,精度を最大化しながら,非常にデータ量の多い状況下で効果的に機能することが実証された。
論文 参考訳(メタデータ) (2023-12-13T23:14:55Z) - Estimation of Fair Ranking Metrics with Incomplete Judgments [70.37717864975387]
本研究では,4つの評価指標のサンプリング手法と推定手法を提案する。
ラベル付きアイテムの数が極めて少ない場合でも動作可能な頑健で偏りのない推定器を定式化する。
論文 参考訳(メタデータ) (2021-08-11T10:57:00Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - RATT: Leveraging Unlabeled Data to Guarantee Generalization [96.08979093738024]
ラベルのないデータを利用して一般化境界を生成する手法を紹介します。
境界が0-1経験的リスク最小化に有効であることを証明します。
この作業は、見えないラベル付きデータが利用できない場合でも、ディープネットの一般化を証明するためのオプションを実践者に提供します。
論文 参考訳(メタデータ) (2021-05-01T17:05:29Z) - Group Fairness by Probabilistic Modeling with Latent Fair Decisions [36.20281545470954]
本稿では,隠蔽ラベルを表す潜伏変数を明示的にモデル化し,偏りのあるデータから確率分布を学習する。
我々は,学習モデルに一定の依存性を課すことで,人口統計学上の同等性を達成することを目指している。
また、これらの保証を提供するために使用される分布が実際に実世界のデータをキャプチャしている場合にのみ、グループフェアネス保証が有意義であることを示す。
論文 参考訳(メタデータ) (2020-09-18T19:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。