論文の概要: Provable Fairness for Neural Network Models using Formal Verification
- arxiv url: http://arxiv.org/abs/2212.08578v1
- Date: Fri, 16 Dec 2022 16:54:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 16:35:03.023572
- Title: Provable Fairness for Neural Network Models using Formal Verification
- Title(参考訳): 形式的検証を用いたニューラルネットワークモデルの確率的公正性
- Authors: Giorgian Borca-Tasciuc, Xingzhi Guo, Stanley Bak, Steven Skiena
- Abstract要約: 本稿では,ニューラルネットワークモデルの特性を検証する形式的手法を用いて,公平性を向上する手法を提案する。
適切なトレーニングによって、AUCスコアの1%未満のコストで、平均65.4%の不公平さを削減できることを示す。
- 参考スコア(独自算出の注目度): 10.90121002896312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are increasingly deployed for critical
decision-making tasks, making it important to verify that they do not contain
gender or racial biases picked up from training data. Typical approaches to
achieve fairness revolve around efforts to clean or curate training data, with
post-hoc statistical evaluation of the fairness of the model on evaluation
data. In contrast, we propose techniques to \emph{prove} fairness using
recently developed formal methods that verify properties of neural network
models.Beyond the strength of guarantee implied by a formal proof, our methods
have the advantage that we do not need explicit training or evaluation data
(which is often proprietary) in order to analyze a given trained model. In
experiments on two familiar datasets in the fairness literature (COMPAS and
ADULTS), we show that through proper training, we can reduce unfairness by an
average of 65.4\% at a cost of less than 1\% in AUC score.
- Abstract(参考訳): 機械学習モデルは、重要な意思決定タスクのためにますますデプロイされているため、トレーニングデータから拾った性別や人種バイアスを含まないことを検証することが重要である。
トレーニングデータのクリーン化やキュレートにあたり、公正性を達成するための典型的なアプローチは、評価データに対するモデルの公正性に関するポストホックな統計的評価である。
対照的に,近年開発されたニューラルネットワークモデルの特性を検証する形式的手法を用いて,emph{prove}の公平性を評価する手法を提案する。形式的証明による保証の強さに加えて,与えられたトレーニングモデルを分析するために明示的なトレーニングや評価データ(しばしばプロプライエタリなデータ)を必要としないという利点がある。
公正文学(COMPAS)とADULTS(ADULTS)の2つの見慣れたデータセットの実験において、適切なトレーニングによって、AUCスコアの1\%以下のコストで平均65.4\%の不公平性を低減できることが示されている。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Data vs. Model Machine Learning Fairness Testing: An Empirical Study [23.535630175567146]
モデルトレーニング前後の公平性をテストすることによって、より包括的なアプローチを評価するための第一歩を踏み出します。
モデル依存度と独立公平度の関係を実証的に分析し,提案手法の有効性を評価する。
以上の結果から, トレーニング前の公平性テストは, バイアスデータ収集プロセスの早期取得において, より安価かつ効果的な手段であることが示唆された。
論文 参考訳(メタデータ) (2024-01-15T14:14:16Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Tools for Verifying Neural Models' Training Data [29.322899317216407]
The Proof-of-Training-Data”では、モデルトレーナーがモデルの重みを発生させたトレーニングデータの検証を納得させることができる。
検証手順が多種多様な攻撃をキャッチできることを実験的に示す。
論文 参考訳(メタデータ) (2023-07-02T23:27:00Z) - Effective Robustness against Natural Distribution Shifts for Models with
Different Training Data [113.21868839569]
効果的ロバスト性」は、分配内(ID)性能から予測できる以上の余分な分配外ロバスト性を測定する。
異なるデータに基づいてトレーニングされたモデルの有効ロバスト性を評価・比較するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-02-02T19:28:41Z) - fAux: Testing Individual Fairness via Gradient Alignment [2.5329739965085785]
いずれの要件も持たない個別の公正性をテストするための新しいアプローチについて述べる。
提案手法は,合成データセットと実世界のデータセットの識別を効果的に行う。
論文 参考訳(メタデータ) (2022-10-10T21:27:20Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - Fairness in the Eyes of the Data: Certifying Machine-Learning Models [38.09830406613629]
本稿では,対話型およびプライバシ保護テストに基づいて,モデルの公正度を認定するフレームワークを提案する。
テストデータはテスタにのみプライベートに提供されるか、あるいはモデル作成者にも事前に公開されている2つのシナリオに対処します。
我々は、参加者の機密データを隠蔽しながら、モデルへのブラックボックスアクセスのみを使用して、公正性テストと認定推論を自動化する暗号技術を提供する。
論文 参考訳(メタデータ) (2020-09-03T09:22:39Z) - FR-Train: A Mutual Information-Based Approach to Fair and Robust
Training [33.385118640843416]
本稿では,公正でロバストなモデルトレーニングを行うFR-Trainを提案する。
我々の実験では、FR-Trainは、データ中毒の存在下での公正さと正確さのほとんど低下を示さなかった。
論文 参考訳(メタデータ) (2020-02-24T13:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。