論文の概要: Causal Fair Metric: Bridging Causality, Individual Fairness, and
Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2310.19391v2
- Date: Tue, 6 Feb 2024 10:25:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 19:48:25.209538
- Title: Causal Fair Metric: Bridging Causality, Individual Fairness, and
Adversarial Robustness
- Title(参考訳): 因果的公平性:因果関係の橋渡し、個々人の公平性、敵対的堅牢性
- Authors: Ahmad-Reza Ehyaei, Golnoosh Farnadi, Samira Samadi
- Abstract要約: モデル内の脆弱性の特定や、類似した個人を公平に扱うことを目的とした個々の公正性に使用される対向的摂動は、どちらも同等の入力データインスタンスを生成するためのメトリクスに依存している。
このような共同メトリクスを定義する以前の試みは、データや構造因果モデルに関する一般的な仮定を欠くことが多く、反事実的近接を反映できなかった。
本稿では, 因果的属性と保護された因果的摂動を含む因果的構造に基づいて定式化された因果的公正度について紹介する。
- 参考スコア(独自算出の注目度): 7.246701762489971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the essential need for comprehensive considerations in responsible
AI, factors like robustness, fairness, and causality are often studied in
isolation. Adversarial perturbation, used to identify vulnerabilities in
models, and individual fairness, aiming for equitable treatment of similar
individuals, despite initial differences, both depend on metrics to generate
comparable input data instances. Previous attempts to define such joint metrics
often lack general assumptions about data or structural causal models and were
unable to reflect counterfactual proximity. To address this, our paper
introduces a causal fair metric formulated based on causal structures
encompassing sensitive attributes and protected causal perturbation. To enhance
the practicality of our metric, we propose metric learning as a method for
metric estimation and deployment in real-world problems in the absence of
structural causal models. We also demonstrate the application of our novel
metric in classifiers. Empirical evaluation of real-world and synthetic
datasets illustrates the effectiveness of our proposed metric in achieving an
accurate classifier with fairness, resilience to adversarial perturbations, and
a nuanced understanding of causal relationships.
- Abstract(参考訳): 責任あるaiにおける包括的考察の必要性にもかかわらず、堅牢性、公平性、因果性といった要因は孤立して研究されることが多い。
モデル内の脆弱性と個人の公正性を識別するために使用される対向摂動は、初期の違いにもかかわらず、どちらも同等の入力データインスタンスを生成するメトリクスに依存する。
このような共同メトリクスを定義する以前の試みは、データや構造因果モデルに関する一般的な仮定を欠くことが多く、反事実的近接を反映できなかった。
そこで本研究では,敏感な属性と保護された因果摂動を包含する因果構造に基づいて定式化した因果的公平計量を提案する。
メトリクスの実用性を高めるために,構造的因果モデルが存在しない実世界の問題におけるメトリクス推定と展開のための方法として,メトリクス学習を提案する。
また、分類器における新しい計量の応用を実証する。
実世界および合成データセットの実証的評価は, 正当性, 対向摂動に対する弾力性, 因果関係の微妙な理解を実現する上で, 提案手法の有効性を示すものである。
関連論文リスト
- Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Causal Adversarial Perturbations for Individual Fairness and Robustness
in Heterogeneous Data Spaces [9.945881685938602]
本研究では,不均一なデータ空間における個人的公正性,対角的ロバスト性,構造的因果モデルとの関係について検討する。
新たな因果摂動を導入し, 逆行訓練を適用して, 個別の公平性, 因果性, 頑健性を組み合わせた新たな正則化器を作成する。
論文 参考訳(メタデータ) (2023-08-17T12:16:48Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - On Causally Disentangled Representations [18.122893077772993]
本稿では,不整合因果過程の概念を用いて,不整合表現の分析を行う。
我々の測定値が不整合因果過程のデシダラタを捉えていることが示される。
本研究では,このメトリクスとデータセットを用いて,非絡み合った表現学習者の状態に関する実証的研究を行い,因果的視点から評価する。
論文 参考訳(メタデータ) (2021-12-10T18:56:27Z) - Enhancing Model Robustness and Fairness with Causality: A Regularization
Approach [15.981724441808147]
最近の研究は、機械学習モデルにおける急激な相関と意図しないバイアスのリスクを懸念している。
モデルトレーニング中に因果知識を統合するためのシンプルで直感的な正規化手法を提案する。
因果的特徴に依存し、因果的でない特徴に依存しない予測モデルを構築します。
論文 参考訳(メタデータ) (2021-10-03T02:49:33Z) - Understanding Factuality in Abstractive Summarization with FRANK: A
Benchmark for Factuality Metrics [17.677637487977208]
現代の要約モデルは、高度に流れるが、実際には信頼できない出力を生成する。
一般的なベンチマークがないため、自動生成したサマリーの事実性を測定するためのメトリクスを比較することはできない。
我々は,事実誤りの類型を考案し,それを用いて,最先端の要約システムから生成された要約の人間のアノテーションを収集する。
論文 参考訳(メタデータ) (2021-04-27T17:28:07Z) - On Disentangled Representations Learned From Correlated Data [59.41587388303554]
相関データに対する最も顕著な絡み合うアプローチの挙動を解析することにより、現実のシナリオにギャップを埋める。
本研究では,データセットの体系的相関が学習され,潜在表現に反映されていることを示す。
また、トレーニング中の弱い監督や、少数のラベルで事前訓練されたモデルを修正することで、これらの潜伏相関を解消する方法を実証する。
論文 参考訳(メタデータ) (2020-06-14T12:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。