論文の概要: A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions
- arxiv url: http://arxiv.org/abs/2112.05700v1
- Date: Fri, 10 Dec 2021 17:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 14:53:35.657961
- Title: A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions
- Title(参考訳): 公正のためのフレームワーク: 既存の公正なAIソリューションの体系的レビュー
- Authors: Brianna Richardson, Juan E. Gilbert
- Abstract要約: 公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
- 参考スコア(独自算出の注目度): 4.594159253008448
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In a world of daily emerging scientific inquisition and discovery, the
prolific launch of machine learning across industries comes to little surprise
for those familiar with the potential of ML. Neither so should the congruent
expansion of ethics-focused research that emerged as a response to issues of
bias and unfairness that stemmed from those very same applications. Fairness
research, which focuses on techniques to combat algorithmic bias, is now more
supported than ever before. A large portion of fairness research has gone to
producing tools that machine learning practitioners can use to audit for bias
while designing their algorithms. Nonetheless, there is a lack of application
of these fairness solutions in practice. This systematic review provides an
in-depth summary of the algorithmic bias issues that have been defined and the
fairness solution space that has been proposed. Moreover, this review provides
an in-depth breakdown of the caveats to the solution space that have arisen
since their release and a taxonomy of needs that have been proposed by machine
learning practitioners, fairness researchers, and institutional stakeholders.
These needs have been organized and addressed to the parties most influential
to their implementation, which includes fairness researchers, organizations
that produce ML algorithms, and the machine learning practitioners themselves.
These findings can be used in the future to bridge the gap between
practitioners and fairness experts and inform the creation of usable fair ML
toolkits.
- Abstract(参考訳): 日々の科学的な探求と発見の世界では、機械学習が産業にまたがって大量にローンチされることは、MLの可能性に精通している人々にとってほとんど驚きではない。
偏見と不公平という問題に対する反応として現れた倫理に焦点を当てた研究が、全く同じ応用から生まれたものであってはならない。
アルゴリズムバイアスと戦う技術に焦点を当てたfairness researchが、これまで以上にサポートされた。
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するツールの開発に費やされている。
それでも、実際にはこれらの公平性ソリューションの応用は不十分である。
この体系的レビューは、定義されているアルゴリズムバイアス問題と提案されている公平性解決空間の詳細な概要を提供する。
さらに、このレビューでは、リリース以来のソリューション空間への注意事項の詳細な説明と、機械学習実践者、公正研究者、機関利害関係者によって提案されたニーズの分類を提供する。
これらのニーズは、公正な研究者、MLアルゴリズムを作成する組織、マシンラーニング実践者自身を含む、実装に最も影響力のある関係者に組織され、対処されている。
これらの発見は、将来、実践者と公正な専門家のギャップを埋め、使用可能な公正なMLツールキットの作成を知らせるために利用することができる。
関連論文リスト
- Whither Bias Goes, I Will Go: An Integrative, Systematic Review of Algorithmic Bias Mitigation [1.0470286407954037]
機械学習(ML)モデルは不平等をバイアスし、持続し、悪化させる可能性があるという懸念が高まっている。
本稿では,MLアセスメントを開発し,バイアス軽減手法を適用した4段階モデルを提案する。
論文 参考訳(メタデータ) (2024-10-21T02:32:14Z) - Measuring, Interpreting, and Improving Fairness of Algorithms using
Causal Inference and Randomized Experiments [8.62694928567939]
本稿では,アルゴリズム決定の公平性を測り,解釈し,改善するためのMIIFフレームワークを提案する。
ランダム化実験を用いてアルゴリズムバイアスを測定し, 異なる処理, 異なる影響, 経済的価値の同時測定を可能にする。
また、ブラックボックスアルゴリズムの信念を正確に解釈し、蒸留する、説明可能な機械学習モデルを開発した。
論文 参考訳(メタデータ) (2023-09-04T19:45:18Z) - Machine Unlearning: A Survey [56.79152190680552]
プライバシ、ユーザビリティ、および/または忘れられる権利のために、特定のサンプルに関する情報をマシンアンラーニングと呼ばれるモデルから削除する必要がある特別なニーズが生まれている。
この新興技術は、その革新と実用性により、学者と産業の両方から大きな関心を集めている。
この複雑なトピックを分析したり、さまざまなシナリオで既存の未学習ソリューションの実現可能性を比較したりした研究はない。
この調査は、未学習のテクニックに関する卓越した問題と、新しい研究機会のための実現可能な方向性を強調して締めくくった。
論文 参考訳(メタデータ) (2023-06-06T10:18:36Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - BeFair: Addressing Fairness in the Banking Sector [54.08949958349055]
銀行セクターにおける産業的オープンイノベーションプロジェクトの最初の成果を提示する。
本稿では,MLの公平性に関する一般的なロードマップと,バイアスの特定と緩和を支援するBeFairと呼ばれるツールキットの実装を提案する。
論文 参考訳(メタデータ) (2021-02-03T16:37:10Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。