論文の概要: FairJob: A Real-World Dataset for Fairness in Online Systems
- arxiv url: http://arxiv.org/abs/2407.03059v2
- Date: Fri, 01 Nov 2024 06:45:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:45:31.449694
- Title: FairJob: A Real-World Dataset for Fairness in Online Systems
- Title(参考訳): FairJob: オンラインシステムにおけるフェアネスのためのリアルタイムデータセット
- Authors: Mariia Vladimirova, Federico Pavone, Eustache Diemert,
- Abstract要約: 広告における求人推薦のためのフェアネス対応データセットを提案する。
収集され、プライバシー基準とビジネス機密に準拠する準備が整った。
匿名化され、センシティブな属性のプロキシを含むにもかかわらず、データセットは予測力を保持します。
- 参考スコア(独自算出の注目度): 2.3622884172290255
- License:
- Abstract: We introduce a fairness-aware dataset for job recommendations in advertising, designed to foster research in algorithmic fairness within real-world scenarios. It was collected and prepared to comply with privacy standards and business confidentiality. An additional challenge is the lack of access to protected user attributes such as gender, for which we propose a solution to obtain a proxy estimate. Despite being anonymized and including a proxy for a sensitive attribute, our dataset preserves predictive power and maintains a realistic and challenging benchmark. This dataset addresses a significant gap in the availability of fairness-focused resources for high-impact domains like advertising -- the actual impact being having access or not to precious employment opportunities, where balancing fairness and utility is a common industrial challenge. We also explore various stages in the advertising process where unfairness can occur and introduce a method to compute a fair utility metric for the job recommendations in online systems case from a biased dataset. Experimental evaluations of bias mitigation techniques on the released dataset demonstrate potential improvements in fairness and the associated trade-offs with utility. The dataset is hosted at https://huggingface.co/datasets/criteo/FairJob. Source code for the experiments is hosted at https://github.com/criteo-research/FairJob-dataset/.
- Abstract(参考訳): 実世界のシナリオにおけるアルゴリズム的公正性の研究を促進するために,広告における求人推薦のためのフェアネス対応データセットを導入する。
収集され、プライバシー基準とビジネス機密に準拠する準備が整った。
もう一つの課題は、性別などの保護されたユーザー属性へのアクセスの欠如である。
匿名化され、センシティブな属性のプロキシを含むにもかかわらず、私たちのデータセットは予測力を保ち、現実的で挑戦的なベンチマークを維持します。
このデータセットは、広告のようなインパクトの高いドメインに対するフェアネスに焦点を当てたリソースの可用性において、大きなギャップに対処します。
また、不公平が生じる広告プロセスのさまざまな段階についても検討し、偏りのあるデータセットから、オンラインシステムの場合の求職度を公平に計算する方法を提案する。
リリースデータセットにおけるバイアス緩和手法の実験的評価は、フェアネスとそれに伴うユーティリティとのトレードオフの潜在的な改善を示すものである。
データセットはhttps://huggingface.co/datasets/criteo/FairJobにホストされている。
実験のソースコードはhttps://github.com/criteo-research/FairJob-dataset/.comで公開されている。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Toward Fairer Face Recognition Datasets [69.04239222633795]
顔認識と検証は、ディープ表現の導入によってパフォーマンスが向上したコンピュータビジョンタスクである。
実際のトレーニングデータセットにおける顔データとバイアスのセンシティブな性格による倫理的、法的、技術的な課題は、彼らの開発を妨げる。
生成されたトレーニングデータセットに階層属性のバランス機構を導入することにより、公平性を促進する。
論文 参考訳(メタデータ) (2024-06-24T12:33:21Z) - AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - When Fairness Meets Privacy: Fair Classification with Semi-Private
Sensitive Attributes [18.221858247218726]
半私的な環境での公平な分類の新規かつ実践的な問題について検討する。
センシティブな属性のほとんどはプライベートであり、クリーンな属性はごくわずかである。
半原始的環境下での公正な予測を実現するための新しいフレームワークであるFairSPを提案する。
論文 参考訳(メタデータ) (2022-07-18T01:10:25Z) - Models and Mechanisms for Fairness in Location Data Processing [6.640563753223598]
位置情報の利用は、モバイルアプリの出現や、スマートヘルスやスマートシティといった新しい分野によって、この10年間で広く普及している。
同時に、データ処理の公平性に関して重要な懸念が浮かび上がっている。
本稿では、位置データと空間処理の特定の特性に適合する既存の公正度モデルを適用する。
論文 参考訳(メタデータ) (2022-04-04T22:57:16Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。