論文の概要: Fairness-in-the-Workflow: How Machine Learning Practitioners at Big Tech Companies Approach Fairness in Recommender Systems
- arxiv url: http://arxiv.org/abs/2505.19441v2
- Date: Thu, 18 Sep 2025 18:37:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 14:11:07.061305
- Title: Fairness-in-the-Workflow: How Machine Learning Practitioners at Big Tech Companies Approach Fairness in Recommender Systems
- Title(参考訳): フェアネス・イン・ザ・ワークフロー: ビッグデータ企業における機械学習実践者がレコメンダシステムにおけるフェアネスにどのようにアプローチするか
- Authors: Jing Nathan Yan, Emma Harvey, Junxiong Wang, Jeffrey M. Rzeszotarski, Allison Koenecke,
- Abstract要約: 大手テクノロジー企業におけるRS実践者のワークフローをマップします。
既存のRSに公平さを取り入れる上で重要な課題を特定する。
私たちはRSコミュニティに対して実行可能なレコメンデーションを提供します。
- 参考スコア(独自算出の注目度): 21.6740215955322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems (RS), which are widely deployed across high-stakes domains, are susceptible to biases that can cause large-scale societal impacts. Researchers have proposed methods to measure and mitigate such biases -- but translating academic theory into practice is inherently challenging. RS practitioners must balance the competing interests of diverse stakeholders, including providers and users, and operate in dynamic environments. Through a semi-structured interview study (N=11), we map the RS practitioner workflow within large technology companies, focusing on how technical teams consider fairness internally and in collaboration with other (legal, data, and fairness) teams. We identify key challenges to incorporating fairness into existing RS workflows: defining fairness in RS contexts, particularly when navigating multi-stakeholder and dynamic fairness considerations. We also identify key organization-wide challenges: making time for fairness work and facilitating cross-team communication. Finally, we offer actionable recommendations for the RS community, including HCI researchers and practitioners.
- Abstract(参考訳): 勧告システム(RS)は、高い領域に広く展開されているが、大規模な社会的影響を引き起こすバイアスの影響を受けやすい。
研究者はそのようなバイアスを計測し緩和する方法を提案してきたが、学術理論を実践に翻訳することは本質的に難しい。
RS実践者は、プロバイダやユーザを含む多様な利害関係者の競合する利益をバランスさせ、動的な環境で運用する必要があります。
半構造化されたインタビュースタディ(N=11)を通じて、大手テクノロジ企業内のRS実践者ワークフローをマッピングし、技術的チームが内部および他の(法、データ、公正)チームとのコラボレーションをどのように考えるかに焦点を当てます。
既存のRSワークフローにフェアネスを組み込む上で重要な課題は、RSコンテキストにおけるフェアネスの定義である。
公平な作業のための時間を作り、チーム間のコミュニケーションを促進すること。
最後に、HCI研究者や実践者を含むRSコミュニティに対して、実行可能なレコメンデーションを提供します。
関連論文リスト
- Contextual Fairness-Aware Practices in ML: A Cost-Effective Empirical Evaluation [48.943054662940916]
フェアネス・アウェアの実践を文脈的・費用対効果という2つの観点から検討する。
本研究は,文脈が公正な実践の有効性にどのように影響するかを考察する。
本研究の目的は,SE実践者に対して,最小パフォーマンスコストで公正性を実現するプラクティスの選択を指導することである。
論文 参考訳(メタデータ) (2025-03-19T18:10:21Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Survey on Fair Reinforcement Learning: Theory and Practice [9.783469272270896]
本稿では、強化学習(RL)フレームワークを用いて実装されたフェアネスアプローチについて概観する。
本稿では,RL法を適用した様々な実用的応用について論じる。
フェアRLの分野を前進させるために検討すべき主要な課題をいくつか取り上げる。
論文 参考訳(メタデータ) (2022-05-20T09:07:28Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Fairness On The Ground: Applying Algorithmic Fairness Approaches to
Production Systems [4.288137349392433]
本稿では,大規模技術企業における複雑な生産システムへのアルゴリズム公平性アプローチの適用例を示す。
システム実装の実証的な問題から、製品と政策設計の規範的な質問を解き放つ方法について議論します。
また、後者の質問に答えるためのアプローチを提案し、機械学習システムと人間のラベル付け者がこれらのトレードオフをどう行っているかを測定することができる。
論文 参考訳(メタデータ) (2021-03-10T16:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。