論文の概要: Causal Fair Metric: Bridging Causality, Individual Fairness, and
Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2310.19391v1
- Date: Mon, 30 Oct 2023 09:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 20:59:10.481975
- Title: Causal Fair Metric: Bridging Causality, Individual Fairness, and
Adversarial Robustness
- Title(参考訳): 因果的公平性:因果関係の橋渡し、個々人の公平性、敵対的堅牢性
- Authors: Ahmad-Reza Ehyaei, Golnoosh Farnadi, Samira Samadi
- Abstract要約: アドリア摂動は、機械学習モデルの脆弱性を明らかにするために使用される。
個々人の公平性の概念は、微妙な属性に関係なく公平な扱いを確保することを目的としている。
因果的属性を包含する因果的構造に基づいて定式化された因果的公正度(cousal fair metric)を導入する。
- 参考スコア(独自算出の注目度): 7.246701762489971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial perturbation is used to expose vulnerabilities in machine
learning models, while the concept of individual fairness aims to ensure
equitable treatment regardless of sensitive attributes. Despite their initial
differences, both concepts rely on metrics to generate similar input data
instances. These metrics should be designed to align with the data's
characteristics, especially when it is derived from causal structure and should
reflect counterfactuals proximity. Previous attempts to define such metrics
often lack general assumptions about data or structural causal models. In this
research, we introduce a causal fair metric formulated based on causal
structures that encompass sensitive attributes. For robustness analysis, the
concept of protected causal perturbation is presented. Additionally, we delve
into metric learning, proposing a method for metric estimation and deployment
in real-world problems. The introduced metric has applications in the fields
adversarial training, fair learning, algorithmic recourse, and causal
reinforcement learning.
- Abstract(参考訳): 敵対的摂動は機械学習モデルの脆弱性を暴露するために使用され、一方個々の公平性の概念は、機密性に関係なく公平な扱いを保証することを目的としている。
最初の違いにもかかわらず、両方の概念は類似した入力データインスタンスを生成するためにメトリクスに依存している。
これらの指標は、特に因果構造から派生したデータの特徴と一致し、反事実的近接を反映するように設計されるべきである。
このようなメトリクスを定義する以前の試みは、しばしばデータや構造的因果モデルに関する一般的な仮定を欠いている。
本研究では,感性属性を含む因果構造に基づいて定式化された因果フェアメトリックを提案する。
ロバストネス分析のために、保護因果摂動の概念が提示される。
さらに,実世界の問題に対するメトリック推定とデプロイメントの手法を提案することにより,メトリック学習を考察した。
紹介されたメトリクスは、対人訓練、公正学習、アルゴリズムの講義、因果強化学習に応用されている。
関連論文リスト
- Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Causal Adversarial Perturbations for Individual Fairness and Robustness
in Heterogeneous Data Spaces [9.945881685938602]
本研究では,不均一なデータ空間における個人的公正性,対角的ロバスト性,構造的因果モデルとの関係について検討する。
新たな因果摂動を導入し, 逆行訓練を適用して, 個別の公平性, 因果性, 頑健性を組み合わせた新たな正則化器を作成する。
論文 参考訳(メタデータ) (2023-08-17T12:16:48Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - On Causally Disentangled Representations [18.122893077772993]
本稿では,不整合因果過程の概念を用いて,不整合表現の分析を行う。
我々の測定値が不整合因果過程のデシダラタを捉えていることが示される。
本研究では,このメトリクスとデータセットを用いて,非絡み合った表現学習者の状態に関する実証的研究を行い,因果的視点から評価する。
論文 参考訳(メタデータ) (2021-12-10T18:56:27Z) - Enhancing Model Robustness and Fairness with Causality: A Regularization
Approach [15.981724441808147]
最近の研究は、機械学習モデルにおける急激な相関と意図しないバイアスのリスクを懸念している。
モデルトレーニング中に因果知識を統合するためのシンプルで直感的な正規化手法を提案する。
因果的特徴に依存し、因果的でない特徴に依存しない予測モデルを構築します。
論文 参考訳(メタデータ) (2021-10-03T02:49:33Z) - Understanding Factuality in Abstractive Summarization with FRANK: A
Benchmark for Factuality Metrics [17.677637487977208]
現代の要約モデルは、高度に流れるが、実際には信頼できない出力を生成する。
一般的なベンチマークがないため、自動生成したサマリーの事実性を測定するためのメトリクスを比較することはできない。
我々は,事実誤りの類型を考案し,それを用いて,最先端の要約システムから生成された要約の人間のアノテーションを収集する。
論文 参考訳(メタデータ) (2021-04-27T17:28:07Z) - On Disentangled Representations Learned From Correlated Data [59.41587388303554]
相関データに対する最も顕著な絡み合うアプローチの挙動を解析することにより、現実のシナリオにギャップを埋める。
本研究では,データセットの体系的相関が学習され,潜在表現に反映されていることを示す。
また、トレーニング中の弱い監督や、少数のラベルで事前訓練されたモデルを修正することで、これらの潜伏相関を解消する方法を実証する。
論文 参考訳(メタデータ) (2020-06-14T12:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。