論文の概要: Fairness Practices in Industry: A Case Study in Machine Learning Teams Building Recommender Systems
- arxiv url: http://arxiv.org/abs/2505.19441v1
- Date: Mon, 26 May 2025 02:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.129288
- Title: Fairness Practices in Industry: A Case Study in Machine Learning Teams Building Recommender Systems
- Title(参考訳): 業界におけるフェアネスの実践--機械学習チームがレコメンダシステムを構築するケーススタディ
- Authors: Jing Nathan Yan, Junxiong Wang, Jeffrey M. Rzeszotarski, Allison Koenecke,
- Abstract要約: 私たちは、現在の偏見の実践、応用メトリクス、協調戦略、実践への学術研究の統合に重点を置いています。
発見は、従来の人口統計学的手法よりも多次元の偏見を好むことを示している。
また,実践者の個人的役割(ボトムアップ)と組織的(トップダウン)な職場制約(トップダウン)のバランスをとることの難しさを強調した。
- 参考スコア(独自算出の注目度): 11.599213317208562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid proliferation of recommender systems necessitates robust fairness practices to address inherent biases. Assessing fairness, though, is challenging due to constantly evolving metrics and best practices. This paper analyzes how industry practitioners perceive and incorporate these changing fairness standards in their workflows. Through semi-structured interviews with 11 practitioners from technical teams across a range of large technology companies, we investigate industry implementations of fairness in recommendation system products. We focus on current debiasing practices, applied metrics, collaborative strategies, and integrating academic research into practice. Findings show a preference for multi-dimensional debiasing over traditional demographic methods, and a reliance on intuitive rather than academic metrics. This study also highlights the difficulties in balancing fairness with both the practitioner's individual (bottom-up) roles and organizational (top-down) workplace constraints, including the interplay with legal and compliance experts. Finally, we offer actionable recommendations for the recommender system community and algorithmic fairness practitioners, underlining the need to refine fairness practices continually.
- Abstract(参考訳): 推薦システムの急速な普及は、固有のバイアスに対処するためには、堅牢な公正な慣行を必要とする。
しかし、常に進化するメトリクスとベストプラクティスのために、公平さを評価することは難しい。
本稿では、業界実践者がこれらの変化する公正性標準をどのように認識し、ワークフローに組み入れているかを分析する。
大手テクノロジー企業の技術チームの実践者11人との半構造化インタビューを通じて,レコメンデーションシステム製品におけるフェアネスの産業的実装について検討する。
私たちは、現在の偏見の実践、応用メトリクス、協調戦略、実践への学術研究の統合に重点を置いています。
発見は、従来の人口統計学的手法よりも多次元の嫌悪感を好み、学術的な指標よりも直感的に依存していることを示している。
この研究は、法律やコンプライアンスの専門家との交流を含む、実践者の個人(ボトムアップ)の役割と組織(トップダウン)の職場制約との公平性のバランスの難しさを強調した。
最後に、リコメンデータシステムコミュニティとアルゴリズムフェアネス実践者に行動可能なレコメンデーションを提供し、継続的にフェアネスの実践を洗練させる必要性を明確にする。
関連論文リスト
- Contextual Fairness-Aware Practices in ML: A Cost-Effective Empirical Evaluation [48.943054662940916]
フェアネス・アウェアの実践を文脈的・費用対効果という2つの観点から検討する。
本研究は,文脈が公正な実践の有効性にどのように影響するかを考察する。
本研究の目的は,SE実践者に対して,最小パフォーマンスコストで公正性を実現するプラクティスの選択を指導することである。
論文 参考訳(メタデータ) (2025-03-19T18:10:21Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Survey on Fair Reinforcement Learning: Theory and Practice [9.783469272270896]
本稿では、強化学習(RL)フレームワークを用いて実装されたフェアネスアプローチについて概観する。
本稿では,RL法を適用した様々な実用的応用について論じる。
フェアRLの分野を前進させるために検討すべき主要な課題をいくつか取り上げる。
論文 参考訳(メタデータ) (2022-05-20T09:07:28Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Fairness On The Ground: Applying Algorithmic Fairness Approaches to
Production Systems [4.288137349392433]
本稿では,大規模技術企業における複雑な生産システムへのアルゴリズム公平性アプローチの適用例を示す。
システム実装の実証的な問題から、製品と政策設計の規範的な質問を解き放つ方法について議論します。
また、後者の質問に答えるためのアプローチを提案し、機械学習システムと人間のラベル付け者がこれらのトレードオフをどう行っているかを測定することができる。
論文 参考訳(メタデータ) (2021-03-10T16:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。