論文の概要: What Is Fairness? Implications For FairML
- arxiv url: http://arxiv.org/abs/2205.09622v1
- Date: Thu, 19 May 2022 15:37:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 20:42:39.349397
- Title: What Is Fairness? Implications For FairML
- Title(参考訳): 公平とは何か?
FairMLの意義
- Authors: Ludwig Bothmann, Kristina Peters, Bernd Bischl
- Abstract要約: フェアネスを意識したML(fairML)における文献の成長は、自動意思決定(ADM)における機械学習(ML)に関連する不公平さを軽減することを意図している
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデル評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
- 参考スコア(独自算出の注目度): 0.9023847175654603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A growing body of literature in fairness-aware ML (fairML) aspires to
mitigate machine learning (ML)-related unfairness in automated decision making
(ADM) by defining metrics that measure fairness of an ML model and by proposing
methods that ensure that trained ML models achieve low values in those
measures. However, the underlying concept of fairness, i.e., the question of
what fairness is, is rarely discussed, leaving a considerable gap between
centuries of philosophical discussion and recent adoption of the concept in the
ML community. In this work, we try to bridge this gap by formalizing a
consistent concept of fairness and by translating the philosophical
considerations into a formal framework for the evaluation of ML models in ADM
systems. We derive that fairness problems can already arise without the
presence of protected attributes, pointing out that fairness and predictive
performance are not irreconcilable counterparts, but rather that the latter is
necessary to achieve the former. Moreover, we argue why and how causal
considerations are necessary when assessing fairness in the presence of
protected attributes. Eventually, we achieve greater linguistic clarity for the
discussion of fairML by clearly assigning responsibilities to stakeholders
inside and outside ML.
- Abstract(参考訳): フェアネスを意識したML(fairML)における文献の増大は、機械学習(ML)に関連する不公平さを自動意思決定(ADM)において軽減することを目的としており、MLモデルの公平性を測定するメトリクスを定義し、訓練されたMLモデルがこれらの尺度で低い値を達成することを保証する方法を提案する。
しかし、公正とは何かという根本的な概念は、何世紀にもわたる哲学的議論とMLコミュニティにおけるこの概念の最近の採用の間にかなりのギャップを残しているため、ほとんど議論されない。
本研究では,公正性という一貫した概念を定式化し,哲学的考察をADMシステムにおけるMLモデル評価のための形式的枠組みに変換することにより,このギャップを埋めようとしている。
フェアネス問題は保護属性の存在なしに既に発生しており、フェアネスと予測性能は不整合性ではなく、前者を達成するためには後者が必要であることを指摘した。
さらに,保護属性の存在下での公平性を評価する上で,なぜ因果的考察が必要なのかを論じる。
最終的には、FairMLの議論において、ML内外の利害関係者に責任を明確に割り当てることにより、より言語学的に明確化が達成される。
関連論文リスト
- Uncertainty-based Fairness Measures [15.964921228103243]
機械学習(ML)モデルの異常予測は、現実の環境で広く受け入れられることを妨げる。
本稿では,MLモデルが既存の点ベース公正度尺度と同等であるように見えるが,予測の不確実性の観点からは人口集団に偏っていることを示す。
論文 参考訳(メタデータ) (2023-12-18T15:49:03Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - The Unfairness of Fair Machine Learning: Levelling down and strict
egalitarianism by default [10.281644134255576]
本稿では,FairMLにおけるレベルダウンの原因と頻度について検討する。
本稿では,最小許容限のハーネス閾値の実施による設計によるフェアMLの実体的平等に向けた第一歩を提案する。
論文 参考訳(メタデータ) (2023-02-05T15:22:43Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。