論文の概要: Fairness in Machine Learning: A Survey
- arxiv url: http://arxiv.org/abs/2010.04053v1
- Date: Sun, 4 Oct 2020 21:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:13:06.576709
- Title: Fairness in Machine Learning: A Survey
- Title(参考訳): 機械学習の公平性:調査
- Authors: Simon Caton and Christian Haas
- Abstract要約: 偏見を緩和し、公平性を促進するアプローチに関する重要な文献がある。
本稿では、(社会的)バイアスを緩和し、機械学習文学における公正性を高めるための、さまざまな思考の流派とアプローチの概要について述べる。
プリプロセッシング、インプロセッシング、ポストプロセッシングといった広く受け入れられているフレームワークへのアプローチを組織化し、さらに11のメソッド領域に分類する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Machine Learning technologies become increasingly used in contexts that
affect citizens, companies as well as researchers need to be confident that
their application of these methods will not have unexpected social
implications, such as bias towards gender, ethnicity, and/or people with
disabilities. There is significant literature on approaches to mitigate bias
and promote fairness, yet the area is complex and hard to penetrate for
newcomers to the domain. This article seeks to provide an overview of the
different schools of thought and approaches to mitigating (social) biases and
increase fairness in the Machine Learning literature. It organises approaches
into the widely accepted framework of pre-processing, in-processing, and
post-processing methods, subcategorizing into a further 11 method areas.
Although much of the literature emphasizes binary classification, a discussion
of fairness in regression, recommender systems, unsupervised learning, and
natural language processing is also provided along with a selection of
currently available open source libraries. The article concludes by summarising
open challenges articulated as four dilemmas for fairness research.
- Abstract(参考訳): 市民に影響を与える文脈で機械学習技術がますます使われるようになるにつれ、企業や研究者は、これらの手法の適用が性別や民族、障害を持つ人々に対する偏見など、予期しない社会的影響をもたらさないと確信する必要がある。
バイアスを緩和し公平性を促進するアプローチに関する重要な文献があるが、この領域は複雑で、新参者にとってドメインへの侵入が困難である。
本稿では、(社会的)バイアスを緩和し、機械学習文学における公平性を高めるための、さまざまな考え方とアプローチの概要について述べる。
プリプロセッシング、インプロセッシング、ポストプロセッシングといった広く受け入れられているフレームワークへのアプローチを組織化し、さらに11のメソッド領域に分類する。
文献の多くはバイナリ分類を強調しているが、回帰、推薦システム、教師なし学習、自然言語処理の公平性に関する議論や、現在利用可能なオープンソースライブラリの選択も提供されている。
論文は、フェアネス研究のための4つのジレンマとして表現されたオープンチャレンジを要約することで締めくくっている。
関連論文リスト
- Advancing Fairness in Natural Language Processing: From Traditional Methods to Explainability [0.9065034043031668]
この論文は、NLPシステムにおける株式と透明性の必要性に対処している。
高リスクNLPアプリケーションにおけるバイアスを軽減する革新的なアルゴリズムを導入している。
また、トランスフォーマーモデルの概念を特定し、ランク付けするモデルに依存しない説明可能性法を提案する。
論文 参考訳(メタデータ) (2024-10-16T12:38:58Z) - A Catalog of Fairness-Aware Practices in Machine Learning Engineering [13.012624574172863]
機械学習は意思決定プロセスに広く採用されているため、公平性に対する懸念が高まる。
マシンラーニングライフサイクル全体を通じて、エンジニアリングフェアネスに関するプラクティスの理解と分類には、依然としてギャップがあります。
本稿では,体系的マッピング研究から得られた機械学習における公平性に対処するための新しいプラクティスカタログを提案する。
論文 参考訳(メタデータ) (2024-08-29T16:28:43Z) - Fairness and Bias Mitigation in Computer Vision: A Survey [61.01658257223365]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-08-05T13:44:22Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Bias and unfairness in machine learning models: a systematic literature
review [43.55994393060723]
本研究の目的は,機械学習モデルにおけるバイアスと不公平性に関する既存の知識を検討することである。
The Systematic Literature Reviewによると、2017年から2022年にかけて、Scoops、IEEE Xplore、Web of Science、Google Scholarの知識ベースで40の論文が出版された。
論文 参考訳(メタデータ) (2022-02-16T16:27:00Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。