論文の概要: Causality-Aided Trade-off Analysis for Machine Learning Fairness
- arxiv url: http://arxiv.org/abs/2305.13057v1
- Date: Mon, 22 May 2023 14:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 15:36:12.361633
- Title: Causality-Aided Trade-off Analysis for Machine Learning Fairness
- Title(参考訳): 因果性に基づく機械学習フェアネスのトレードオフ分析
- Authors: Zhenlan Ji, Pingchuan Ma, Shuai Wang, Yanhui Li
- Abstract要約: 本稿では,機械学習パイプラインにおける公平度パラメータと他の重要な指標とのトレードオフを解析するための原理的手法として因果解析を用いる。
本稿では、正確な因果発見を容易にするためのドメイン固有最適化と、確立された因果推論手法に基づくトレードオフ解析のための統一されたインターフェースを提案する。
- 参考スコア(独自算出の注目度): 9.036563136772207
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: There has been an increasing interest in enhancing the fairness of machine
learning (ML). Despite the growing number of fairness-improving methods, we
lack a systematic understanding of the trade-offs among factors considered in
the ML pipeline when fairness-improving methods are applied. This understanding
is essential for developers to make informed decisions regarding the provision
of fair ML services. Nonetheless, it is extremely difficult to analyze the
trade-offs when there are multiple fairness parameters and other crucial
metrics involved, coupled, and even in conflict with one another.
This paper uses causality analysis as a principled method for analyzing
trade-offs between fairness parameters and other crucial metrics in ML
pipelines. To ractically and effectively conduct causality analysis, we propose
a set of domain-specific optimizations to facilitate accurate causal discovery
and a unified, novel interface for trade-off analysis based on well-established
causal inference methods. We conduct a comprehensive empirical study using
three real-world datasets on a collection of widelyused fairness-improving
techniques. Our study obtains actionable suggestions for users and developers
of fair ML. We further demonstrate the versatile usage of our approach in
selecting the optimal fairness-improving method, paving the way for more
ethical and socially responsible AI technologies.
- Abstract(参考訳): 機械学習(ML)の公正性向上への関心が高まっている。
公平性改善手法が増えているにもかかわらず、公平性改善手法を適用する際にmlパイプラインで考慮される要因間のトレードオフの体系的な理解が欠如している。
この理解は、開発者が公正なMLサービスの提供に関して情報的な決定をする上で不可欠である。
それでも、複数のフェアネスパラメータやその他の重要なメトリクスが絡み合っていて、互いに衝突している場合、トレードオフを分析することは極めて困難です。
本稿では,MLパイプラインにおける公平度パラメータと他の重要な指標とのトレードオフを分析するための原理的手法として因果解析を用いる。
因果関係分析を実際的かつ効果的に行うために, 正確な因果関係の発見を容易にする一連のドメイン固有最適化と, 確立された因果関係推論法に基づくトレードオフ解析のための統一的インターフェースを提案する。
本研究では,3つの実世界のデータセットを用いて,フェアネス改善手法を用いた総合的な実証研究を行う。
本研究は,fair mlのユーザおよび開発者に対して有効な提案を行う。
さらに,より倫理的かつ社会的に責任を負うai技術への道を開くために,最適公平性向上手法を選択するためのアプローチの多岐にわたる利用方法を示す。
関連論文リスト
- Counterfactual Fairness by Combining Factual and Counterfactual Predictions [18.950415688199993]
医療や雇用といった高度な分野において、意思決定における機械学習(ML)の役割は、かなりの公平さの懸念を提起する。
この研究は、あらゆる個人に対するMLモデルの結果が、異なる人口集団に属していた場合、変化しないべきであると仮定する対実公正(CF)に焦点を当てている。
本稿では,CFと予測性能のトレードオフをモデルに依存しない形で理論的に検討する。
論文 参考訳(メタデータ) (2024-09-03T15:21:10Z) - Toward Operationalizing Pipeline-aware ML Fairness: A Research Agenda
for Developing Practical Guidelines and Tools [18.513353100744823]
最近の研究はMLコミュニティに対して、公平な問題に取り組むためにより包括的なアプローチを取るように呼びかけている。
まず、明確なガイドラインやツールキットがなければ、特殊なML知識を持つ個人でさえ、さまざまな設計選択がモデル行動にどのように影響するかを仮説化することは困難である。
次に、パイプライン対応アプローチの運用に向けた現在の進捗を理解するために、フェアMLの文献を参考にします。
論文 参考訳(メタデータ) (2023-09-29T15:48:26Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Improving Fair Predictions Using Variational Inference In Causal Models [8.557308138001712]
アルゴリズム的公正の重要性は、機械学習が人々の生活に与える影響の増加とともに増大する。
フェアネス指標に関する最近の研究は、フェアネス制約における因果推論の必要性を示している。
本研究は、我々の倫理的・法的境界を尊重する機械学習技術に貢献することを目的としている。
論文 参考訳(メタデータ) (2020-08-25T08:27:11Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。