論文の概要: Enhancing Model Robustness and Fairness with Causality: A Regularization
Approach
- arxiv url: http://arxiv.org/abs/2110.00911v1
- Date: Sun, 3 Oct 2021 02:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:52:48.485173
- Title: Enhancing Model Robustness and Fairness with Causality: A Regularization
Approach
- Title(参考訳): 因果関係によるモデルロバスト性および公正性の向上:正規化アプローチ
- Authors: Zhao Wang, Kai Shu, Aron Culotta
- Abstract要約: 最近の研究は、機械学習モデルにおける急激な相関と意図しないバイアスのリスクを懸念している。
モデルトレーニング中に因果知識を統合するためのシンプルで直感的な正規化手法を提案する。
因果的特徴に依存し、因果的でない特徴に依存しない予測モデルを構築します。
- 参考スコア(独自算出の注目度): 15.981724441808147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has raised concerns on the risk of spurious correlations and
unintended biases in statistical machine learning models that threaten model
robustness and fairness. In this paper, we propose a simple and intuitive
regularization approach to integrate causal knowledge during model training and
build a robust and fair model by emphasizing causal features and de-emphasizing
spurious features. Specifically, we first manually identify causal and spurious
features with principles inspired from the counterfactual framework of causal
inference. Then, we propose a regularization approach to penalize causal and
spurious features separately. By adjusting the strength of the penalty for each
type of feature, we build a predictive model that relies more on causal
features and less on non-causal features. We conduct experiments to evaluate
model robustness and fairness on three datasets with multiple metrics.
Empirical results show that the new models built with causal awareness
significantly improve model robustness with respect to counterfactual texts and
model fairness with respect to sensitive attributes.
- Abstract(参考訳): 最近の研究は、モデルの堅牢性と公正性を脅かす統計機械学習モデルにおいて、急激な相関や意図しないバイアスのリスクを懸念している。
本稿では,モデルトレーニング中に因果知識を統合するための単純かつ直感的な正規化手法を提案し,因果的特徴を強調し,非強調的特徴を強調することで,堅牢で公平なモデルを構築する。
具体的には,因果推論の非事実的枠組みに触発された原則を用いて,まず因果的特徴と散発的特徴を手作業で識別する。
次に,因果的特徴と散発的特徴を別々にペナリゼーションする正規化手法を提案する。
それぞれの特徴に対するペナルティの強さを調整することで、因果的特徴に依存し、非因果的特徴に依存しない予測モデルを構築する。
複数のメトリクスを持つ3つのデータセットに対して、モデルの堅牢性と公正性を評価する実験を行う。
実験の結果,因果意識を持つ新しいモデルは,反事実テキストに対するモデルのロバスト性が著しく向上し,敏感な属性に対するモデルの公平性が向上した。
関連論文リスト
- The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - On the Robustness of Removal-Based Feature Attributions [17.679374058425346]
我々は、除去に基づく特徴属性のロバスト性の特性を理論的に特徴づける。
具体的には、このような手法を統一的に分析し、無害な帰属と摂動した帰属の差について上界を導出する。
合成および実世界のデータによる結果から理論的結果が検証され,その実用的意義が実証された。
論文 参考訳(メタデータ) (2023-06-12T23:33:13Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [55.28436972267793]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Causal Inference with Deep Causal Graphs [0.0]
パラメトリック因果モデリング技術は、カウンターファクト推定の機能を提供することはめったにない。
Deep Causal Graphsは、因果分布をモデル化するニューラルネットワークに必要な機能の抽象的な仕様である。
複雑な相互作用をモデル化する上で,その表現力を示し,機械学習の説明可能性と公正性を示す。
論文 参考訳(メタデータ) (2020-06-15T13:03:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。