論文の概要: Fairness Practices in Industry: A Case Study in Machine Learning Teams Building Recommender Systems
- arxiv url: http://arxiv.org/abs/2505.19441v1
- Date: Mon, 26 May 2025 02:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.129288
- Title: Fairness Practices in Industry: A Case Study in Machine Learning Teams Building Recommender Systems
- Title(参考訳): 業界におけるフェアネスの実践--機械学習チームがレコメンダシステムを構築するケーススタディ
- Authors: Jing Nathan Yan, Junxiong Wang, Jeffrey M. Rzeszotarski, Allison Koenecke,
- Abstract要約: 私たちは、現在の偏見の実践、応用メトリクス、協調戦略、実践への学術研究の統合に重点を置いています。
発見は、従来の人口統計学的手法よりも多次元の偏見を好むことを示している。
また,実践者の個人的役割(ボトムアップ)と組織的(トップダウン)な職場制約(トップダウン)のバランスをとることの難しさを強調した。
- 参考スコア(独自算出の注目度): 11.599213317208562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid proliferation of recommender systems necessitates robust fairness practices to address inherent biases. Assessing fairness, though, is challenging due to constantly evolving metrics and best practices. This paper analyzes how industry practitioners perceive and incorporate these changing fairness standards in their workflows. Through semi-structured interviews with 11 practitioners from technical teams across a range of large technology companies, we investigate industry implementations of fairness in recommendation system products. We focus on current debiasing practices, applied metrics, collaborative strategies, and integrating academic research into practice. Findings show a preference for multi-dimensional debiasing over traditional demographic methods, and a reliance on intuitive rather than academic metrics. This study also highlights the difficulties in balancing fairness with both the practitioner's individual (bottom-up) roles and organizational (top-down) workplace constraints, including the interplay with legal and compliance experts. Finally, we offer actionable recommendations for the recommender system community and algorithmic fairness practitioners, underlining the need to refine fairness practices continually.
- Abstract(参考訳): 推薦システムの急速な普及は、固有のバイアスに対処するためには、堅牢な公正な慣行を必要とする。
しかし、常に進化するメトリクスとベストプラクティスのために、公平さを評価することは難しい。
本稿では、業界実践者がこれらの変化する公正性標準をどのように認識し、ワークフローに組み入れているかを分析する。
大手テクノロジー企業の技術チームの実践者11人との半構造化インタビューを通じて,レコメンデーションシステム製品におけるフェアネスの産業的実装について検討する。
私たちは、現在の偏見の実践、応用メトリクス、協調戦略、実践への学術研究の統合に重点を置いています。
発見は、従来の人口統計学的手法よりも多次元の嫌悪感を好み、学術的な指標よりも直感的に依存していることを示している。
この研究は、法律やコンプライアンスの専門家との交流を含む、実践者の個人(ボトムアップ)の役割と組織(トップダウン)の職場制約との公平性のバランスの難しさを強調した。
最後に、リコメンデータシステムコミュニティとアルゴリズムフェアネス実践者に行動可能なレコメンデーションを提供し、継続的にフェアネスの実践を洗練させる必要性を明確にする。
関連論文リスト
- Why Multi-Interest Fairness Matters: Hypergraph Contrastive Multi-Interest Learning for Fair Conversational Recommender System [55.39026603611269]
公正な会話レコメンダシステム(HyFairCRS)のためのハイパーグラフコントラスト学習フレームワークを提案する。
HyFairCRSは対話型対話型レコメンダシステム(CRS)における多目的多様性フェアネスの促進を目指す
2つのCRSベースのデータセットの実験により、HyFairCRSは、不公平を効果的に軽減しつつ、新しい最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2025-07-01T11:39:42Z) - Contextual Fairness-Aware Practices in ML: A Cost-Effective Empirical Evaluation [48.943054662940916]
フェアネス・アウェアの実践を文脈的・費用対効果という2つの観点から検討する。
本研究は,文脈が公正な実践の有効性にどのように影響するかを考察する。
本研究の目的は,SE実践者に対して,最小パフォーマンスコストで公正性を実現するプラクティスの選択を指導することである。
論文 参考訳(メタデータ) (2025-03-19T18:10:21Z) - TeamLoRA: Boosting Low-Rank Adaptation with Expert Collaboration and Competition [61.91764883512776]
我々は,専門家のためのコラボレーション・コンペティション・モジュールからなる,革新的なPEFT手法であるTeamLoRAを紹介する。
そうすることで、TeamLoRAは専門家を"チーム"として内部のコラボレーションや競争に結び付け、マルチタスク学習のためのより高速で正確なPEFTパラダイムを可能にします。
論文 参考訳(メタデータ) (2024-08-19T09:58:53Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Co-Matching: Towards Human-Machine Collaborative Legal Case Matching [69.21196368715144]
合法的なケースマッチングが成功するには、法的実践者の暗黙の知識が必要であり、機械に言語化してエンコードすることは困難である。
本稿では,協調マッチングフレームワークであるCo-Matchingを提案する。
本研究は,人間と機械の協調作業における先駆的な取り組みであり,今後の協調マッチング研究のマイルストーンとなる。
論文 参考訳(メタデータ) (2024-05-16T16:50:31Z) - FairCompass: Operationalising Fairness in Machine Learning [34.964477625987136]
責任あるAIソリューションを開発するための衝動が高まっている。
さまざまな機械学習フェアネスソリューションが文献で提案されている。
現実世界のアプリケーションでは、これらのツールの実践的な実装が欠如していると伝えられている。
論文 参考訳(メタデータ) (2023-12-27T21:29:53Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Investigating Practices and Opportunities for Cross-functional
Collaboration around AI Fairness in Industry Practice [10.979734542685447]
新たな研究機関は、AI設計と開発における公平性の問題に対処する上で、非効果的なクロスファンクショナルコラボレーションが大きな障壁であることを示している。
我々は17社からさまざまな役割を担った23人の業界実践者を対象に,一連のインタビューとデザインワークショップを開催した。
実践者は、役割間のAIフェアネスに関する理解、文脈化、評価の摩擦を克服するために、ブリッジ作業に従事していることがわかった。
論文 参考訳(メタデータ) (2023-06-10T23:42:26Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Survey on Fair Reinforcement Learning: Theory and Practice [9.783469272270896]
本稿では、強化学習(RL)フレームワークを用いて実装されたフェアネスアプローチについて概観する。
本稿では,RL法を適用した様々な実用的応用について論じる。
フェアRLの分野を前進させるために検討すべき主要な課題をいくつか取り上げる。
論文 参考訳(メタデータ) (2022-05-20T09:07:28Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Assessing the Fairness of AI Systems: AI Practitioners' Processes,
Challenges, and Needs for Support [18.148737010217953]
私たちは、実践者のプロセス、課題、サポートの必要性を特定するために、AI実践者とのインタビューとワークショップを行っています。
パフォーマンス指標を選択し、最も関連する直接的な利害関係者や人口統計グループを特定する際に、実践者が課題に直面していることに気付きました。
私たちは、直接利害関係者との関わりの欠如、疎外されたグループよりも顧客を優先するビジネスインペラティブ、大規模にAIシステムをデプロイする動機から生じる公正な作業への影響を特定します。
論文 参考訳(メタデータ) (2021-12-10T17:14:34Z) - Fairness On The Ground: Applying Algorithmic Fairness Approaches to
Production Systems [4.288137349392433]
本稿では,大規模技術企業における複雑な生産システムへのアルゴリズム公平性アプローチの適用例を示す。
システム実装の実証的な問題から、製品と政策設計の規範的な質問を解き放つ方法について議論します。
また、後者の質問に答えるためのアプローチを提案し、機械学習システムと人間のラベル付け者がこれらのトレードオフをどう行っているかを測定することができる。
論文 参考訳(メタデータ) (2021-03-10T16:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。