論文の概要: Fairness in Machine Learning
- arxiv url: http://arxiv.org/abs/2012.15816v1
- Date: Thu, 31 Dec 2020 18:38:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 17:20:58.628827
- Title: Fairness in Machine Learning
- Title(参考訳): 機械学習における公正性
- Authors: Luca Oneto, Silvia Chiappa
- Abstract要約: 因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.934879442202785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning based systems are reaching society at large and in many
aspects of everyday life. This phenomenon has been accompanied by concerns
about the ethical issues that may arise from the adoption of these
technologies. ML fairness is a recently established area of machine learning
that studies how to ensure that biases in the data and model inaccuracies do
not lead to models that treat individuals unfavorably on the basis of
characteristics such as e.g. race, gender, disabilities, and sexual or
political orientation. In this manuscript, we discuss some of the limitations
present in the current reasoning about fairness and in methods that deal with
it, and describe some work done by the authors to address them. More
specifically, we show how causal Bayesian networks can play an important role
to reason about and deal with fairness, especially in complex unfairness
scenarios. We describe how optimal transport theory can be used to develop
methods that impose constraints on the full shapes of distributions
corresponding to different sensitive attributes, overcoming the limitation of
most approaches that approximate fairness desiderata by imposing constraints on
the lower order moments or other functions of those distributions. We present a
unified framework that encompasses methods that can deal with different
settings and fairness criteria, and that enjoys strong theoretical guarantees.
We introduce an approach to learn fair representations that can generalize to
unseen tasks. Finally, we describe a technique that accounts for legal
restrictions about the use of sensitive attributes.
- Abstract(参考訳): 機械学習に基づくシステムは、日常の多くの側面において、社会に到達している。
この現象は、これらの技術の採用によって生じる倫理的問題への懸念も伴っている。
MLフェアネス(ML Fairness)は、最近確立された機械学習の分野であり、データやモデルの不正確さのバイアスが、例えば、特性に基づいて個人を好ましくない扱いをするモデルに結びつかないことを確実にする方法を研究する。
人種、性別、障害、性的または政治的指向。
本書では,公平性に関する現在の推論やそれを扱う方法にみられるいくつかの制限について論じ,それらに対処するために著者によってなされたいくつかの作品について述べる。
より具体的には、特に複雑な不公平なシナリオにおいて、因果ベイズネットワークが公平性を推論し対処する上で重要な役割を担っていることを示す。
これらの分布の低次モーメントや他の関数に制約を課すことで、最も公平なデシダラタを近似するほとんどのアプローチの制限を克服し、異なる感度属性に対応する分布の完全な形に制約を課す方法を開発するために最適な輸送理論をどのように利用できるかを説明する。
我々は,様々な設定や公平性基準に対応可能な手法を包含し,強力な理論的保証を享受する統一フレームワークを提案する。
我々は,未知のタスクに一般化できる公平な表現を学ぶためのアプローチを紹介する。
最後に,機密属性の使用に関する法的制約を考慮した手法について述べる。
関連論文リスト
- Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Technical Challenges for Training Fair Neural Networks [62.466658247995404]
最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行います。
我々は、大きなモデルは公平さの目標に過度に適合し、意図しない、望ましくない結果を生み出すことを観察する。
論文 参考訳(メタデータ) (2021-02-12T20:36:45Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。