論文の概要: Fairness On The Ground: Applying Algorithmic Fairness Approaches to
Production Systems
- arxiv url: http://arxiv.org/abs/2103.06172v1
- Date: Wed, 10 Mar 2021 16:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 07:09:25.616235
- Title: Fairness On The Ground: Applying Algorithmic Fairness Approaches to
Production Systems
- Title(参考訳): 地上の公平性:生産システムへのアルゴリズム公平性アプローチの適用
- Authors: Chlo\'e Bakalar, Renata Barreto, Miranda Bogen, Sam Corbett-Davies,
Melissa Hall, Isabel Kloumann, Michelle Lam, Joaquin Qui\~nonero Candela,
Manish Raghavan, Joshua Simons, Jonathan Tannen, Edmund Tong, Kate
Vredenburgh, Jiejing Zhao
- Abstract要約: 本稿では,大規模技術企業における複雑な生産システムへのアルゴリズム公平性アプローチの適用例を示す。
システム実装の実証的な問題から、製品と政策設計の規範的な質問を解き放つ方法について議論します。
また、後者の質問に答えるためのアプローチを提案し、機械学習システムと人間のラベル付け者がこれらのトレードオフをどう行っているかを測定することができる。
- 参考スコア(独自算出の注目度): 4.288137349392433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many technical approaches have been proposed for ensuring that decisions made
by machine learning systems are fair, but few of these proposals have been
stress-tested in real-world systems. This paper presents an example of one
team's approach to the challenge of applying algorithmic fairness approaches to
complex production systems within the context of a large technology company. We
discuss how we disentangle normative questions of product and policy design
(like, "how should the system trade off between different stakeholders'
interests and needs?") from empirical questions of system implementation (like,
"is the system achieving the desired tradeoff in practice?"). We also present
an approach for answering questions of the latter sort, which allows us to
measure how machine learning systems and human labelers are making these
tradeoffs across different relevant groups. We hope our experience integrating
fairness tools and approaches into large-scale and complex production systems
will be useful to other practitioners facing similar challenges, and
illuminating to academics and researchers looking to better address the needs
of practitioners.
- Abstract(参考訳): 機械学習システムによる決定が公平であることを保証するため、多くの技術的アプローチが提案されているが、実際のシステムでストレステストされているものはほとんどない。
本稿では,大規模技術企業のコンテキストにおいて,複雑な生産システムにアルゴリズムフェアネスアプローチを適用するという課題に対する,あるチームのアプローチの例を示す。
我々は,製品設計と政策設計の規範的問題(「システムの利害関係者の利益とニーズのトレードオフはどのようにあるべきか」など)をいかに切り離すかについて議論する。
システム実装の実証的な質問から("システムは実際に望ましいトレードオフを達成しているのか?
また、後者の質問に答えるアプローチも提示し、機械学習システムと人間のラベラーがこれらのトレードオフを異なる関連グループでどのように行っているかを測定することができます。
私たちは、フェアネスツールとアプローチを大規模で複雑なプロダクションシステムに統合した経験が、同様の課題に直面している他の実践者にとって役に立つことを願っています。
関連論文リスト
- Application-Driven Innovation in Machine Learning [56.85396167616353]
機械学習におけるアプリケーション駆動研究のパラダイムについて述べる。
このアプローチがメソッド駆動の作業と生産的に相乗効果を示す。
このようなメリットにもかかわらず、マシンラーニングにおけるレビュー、採用、教育のプラクティスが、アプリケーション主導のイノベーションを後押しすることが多いことに気付きます。
論文 参考訳(メタデータ) (2024-03-26T04:59:27Z) - FairCompass: Operationalising Fairness in Machine Learning [34.964477625987136]
責任あるAIソリューションを開発するための衝動が高まっている。
さまざまな機械学習フェアネスソリューションが文献で提案されている。
現実世界のアプリケーションでは、これらのツールの実践的な実装が欠如していると伝えられている。
論文 参考訳(メタデータ) (2023-12-27T21:29:53Z) - Embedding in Recommender Systems: A Survey [67.67966158305603]
重要な側面は、ユーザやアイテムIDといった高次元の離散的な特徴を低次元連続ベクトルに包含する技法である。
埋め込み技術の適用は複雑なエンティティ関係を捉え、かなりの研究を刺激している。
この調査では、協調フィルタリング、自己教師付き学習、グラフベースのテクニックなどの埋め込み手法を取り上げている。
論文 参考訳(メタデータ) (2023-10-28T06:31:06Z) - Machine Unlearning: A Survey [56.79152190680552]
プライバシ、ユーザビリティ、および/または忘れられる権利のために、特定のサンプルに関する情報をマシンアンラーニングと呼ばれるモデルから削除する必要がある特別なニーズが生まれている。
この新興技術は、その革新と実用性により、学者と産業の両方から大きな関心を集めている。
この複雑なトピックを分析したり、さまざまなシナリオで既存の未学習ソリューションの実現可能性を比較したりした研究はない。
この調査は、未学習のテクニックに関する卓越した問題と、新しい研究機会のための実現可能な方向性を強調して締めくくった。
論文 参考訳(メタデータ) (2023-06-06T10:18:36Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - An Overview of Recommender Systems and Machine Learning in Feature
Modeling and Configuration [55.67505546330206]
レコメンダーシステムおよび機械学習技術の適用に関連する潜在的な新しい研究ラインの概要を説明します。
本論文では,レコメンダーシステムと機械学習の応用例を示し,今後の研究課題について考察する。
論文 参考訳(メタデータ) (2021-02-12T17:21:36Z) - Specialization in Hierarchical Learning Systems [0.0]
我々は,専門家の階層における情報制約が,正規化の原則的方法を提供するだけでなく,専門化の強制にもどの程度役立つかを検討する。
我々は,問題空間を複数のサブプロブレムに分割し,個々の専門家が解決できる情報理論に基づくオンライン学習ルールを考案する。
本稿では, 分類, 回帰, 密度推定, 強化学習問題など, 様々な問題に対するアプローチの適用性について述べる。
論文 参考訳(メタデータ) (2020-11-03T17:00:31Z) - Bridging Machine Learning and Mechanism Design towards Algorithmic
Fairness [6.6358581196331095]
公平な意思決定システムの構築には,各分野固有の制限を克服する必要がある,と我々は主張する。
私たちは、各規律が公正な意思決定を行う視点を比較することで、この目標に向けて基礎的な取り組みをし始めます。
論文 参考訳(メタデータ) (2020-10-12T03:42:20Z) - A systematic review and taxonomy of explanations in decision support and
recommender systems [13.224071661974596]
我々は,勧告システムにおける説明に関する文献を体系的にレビューする。
我々は、説明施設を設計する際に考慮すべき側面の包括的分類法を考案した。
論文 参考訳(メタデータ) (2020-06-15T18:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。