論文の概要: Beyond traditional assumptions in fair machine learning
- arxiv url: http://arxiv.org/abs/2101.12476v1
- Date: Fri, 29 Jan 2021 09:02:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 12:51:11.258481
- Title: Beyond traditional assumptions in fair machine learning
- Title(参考訳): 公平な機械学習の伝統的な仮定を超えて
- Authors: Niki Kilbertus
- Abstract要約: この論文は、連続的な意思決定における公正性に対する従来の機械学習アプローチの基礎となる一般的な仮定を精査する。
観測データの統計的特性に基づいたグループフェアネス基準は, 基本的に限定的であることを示す。
我々は、機密データが実際に容易に利用できるという仮定を克服する。
- 参考スコア(独自算出の注目度): 5.029280887073969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This thesis scrutinizes common assumptions underlying traditional machine
learning approaches to fairness in consequential decision making. After
challenging the validity of these assumptions in real-world applications, we
propose ways to move forward when they are violated. First, we show that group
fairness criteria purely based on statistical properties of observed data are
fundamentally limited. Revisiting this limitation from a causal viewpoint we
develop a more versatile conceptual framework, causal fairness criteria, and
first algorithms to achieve them. We also provide tools to analyze how
sensitive a believed-to-be causally fair algorithm is to misspecifications of
the causal graph. Second, we overcome the assumption that sensitive data is
readily available in practice. To this end we devise protocols based on secure
multi-party computation to train, validate, and contest fair decision
algorithms without requiring users to disclose their sensitive data or decision
makers to disclose their models. Finally, we also accommodate the fact that
outcome labels are often only observed when a certain decision has been made.
We suggest a paradigm shift away from training predictive models towards
directly learning decisions to relax the traditional assumption that labels can
always be recorded. The main contribution of this thesis is the development of
theoretically substantiated and practically feasible methods to move research
on fair machine learning closer to real-world applications.
- Abstract(参考訳): この論文は、結果的な意思決定における公平性に対する従来の機械学習アプローチの基礎となる共通の仮定を精査する。
実世界のアプリケーションにおけるこれらの仮定の有効性に挑戦した後、違反した場合に前進する方法を提案する。
まず,観測データの統計的特性に基づいたグループフェアネス基準が,基本的に制限されていることを示す。
この制限を因果的観点から再検討し、より汎用的な概念的枠組み、因果公平性基準、そしてそれらを達成するための最初のアルゴリズムを開発します。
また,因果グラフの誤特定に対して,因果的公平なアルゴリズムがどの程度敏感であるかを分析するツールを提供する。
第2に,センシティブなデータが実際に容易に利用できるという仮定を克服する。
この目的のために、ユーザが機密データや意思決定者に対して、モデルを公開することなく、公正な決定アルゴリズムを訓練、検証、競合するためのセキュアなマルチパーティ計算に基づくプロトコルを考案しました。
最後に、ある決定が下されたときにのみ結果ラベルが観察されることも少なくありません。
予測モデルをトレーニングから直接学習へ移行し、ラベルを常に記録できるという従来の仮定を緩和することを提案する。
この論文の主な貢献は、公正な機械学習の研究を現実世界の応用に近づけるための理論的に実証され実用的な方法の開発である。
関連論文リスト
- Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - On Learning and Testing of Counterfactual Fairness through Data
Preprocessing [27.674565351048077]
機械学習は実生活における意思決定においてますます重要になっているが、人々は不適切な使用によってもたらされる倫理的問題を懸念している。
最近の研究は、機械学習の公正性に関する議論を因果的枠組みに持ち込み、対実的公正性の概念を精査している。
偏りのあるトレーニングデータから対実的に公正な決定を学習するために,dAta前処理(FLAP)アルゴリズムを用いてフェアラーニングを開発する。
論文 参考訳(メタデータ) (2022-02-25T00:21:46Z) - Knowledge-driven Active Learning [70.37119719069499]
アクティブな学習戦略は、ディープラーニングモデルをトレーニングするために必要なラベル付きデータの量を最小限にすることを目的としている。
ほとんどの積極的な戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
本稿では、一般的なドメイン知識を考慮し、エキスパートでないユーザがより少ないサンプルでモデルを訓練できるようにする。
論文 参考訳(メタデータ) (2021-10-15T06:11:53Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fair Meta-Learning For Few-Shot Classification [7.672769260569742]
バイアスデータに基づいてトレーニングされた機械学習アルゴリズムは、不公平な予測を行う傾向がある。
本稿では,メタトレイン中のバイアスを効果的に軽減する,高速適応型数ショットメタラーニング手法を提案する。
提案手法は,モデル出力のバイアスを効果的に軽減し,不明瞭なタスクに対して精度と公平性の両方を一般化することを実証的に実証する。
論文 参考訳(メタデータ) (2020-09-23T22:33:47Z) - Improving Fair Predictions Using Variational Inference In Causal Models [8.557308138001712]
アルゴリズム的公正の重要性は、機械学習が人々の生活に与える影響の増加とともに増大する。
フェアネス指標に関する最近の研究は、フェアネス制約における因果推論の必要性を示している。
本研究は、我々の倫理的・法的境界を尊重する機械学習技術に貢献することを目的としている。
論文 参考訳(メタデータ) (2020-08-25T08:27:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。