論文の概要: Concolic Testing on Individual Fairness of Neural Network Models
- arxiv url: http://arxiv.org/abs/2509.06864v1
- Date: Mon, 08 Sep 2025 16:31:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.261335
- Title: Concolic Testing on Individual Fairness of Neural Network Models
- Title(参考訳): ニューラルネットワークモデルの個別公正性に関する衝突試験
- Authors: Ming-I Huang, Chih-Duo Hong, Fang Yu,
- Abstract要約: PyFairはDeep Neural Networks(DNN)の個々の公正性を評価し検証するための正式なフレームワークである。
我々の重要な革新は、網羅的な公平性評価を可能にし、特定のネットワークタイプに対して完全性を保証するデュアルネットワークアーキテクチャである。
- 参考スコア(独自算出の注目度): 0.754900594011865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces PyFair, a formal framework for evaluating and verifying individual fairness of Deep Neural Networks (DNNs). By adapting the concolic testing tool PyCT, we generate fairness-specific path constraints to systematically explore DNN behaviors. Our key innovation is a dual network architecture that enables comprehensive fairness assessments and provides completeness guarantees for certain network types. We evaluate PyFair on 25 benchmark models, including those enhanced by existing bias mitigation techniques. Results demonstrate PyFair's efficacy in detecting discriminatory instances and verifying fairness, while also revealing scalability challenges for complex models. This work advances algorithmic fairness in critical domains by offering a rigorous, systematic method for fairness testing and verification of pre-trained DNNs.
- Abstract(参考訳): 本稿では,Deep Neural Networks (DNN) の個人的公正性を評価するための形式的フレームワークであるPyFairを紹介する。
コンコリックテストツールPyCTを適応させることで、公平性固有の経路制約を生成し、DNNの振る舞いを体系的に探索する。
我々の重要な革新は、網羅的な公平性評価を可能にし、特定のネットワークタイプに対して完全性を保証するデュアルネットワークアーキテクチャである。
PyFairを25のベンチマークモデルで評価する。
結果は、PyFairが識別インスタンスを検出し、公平性を検証するのに有効であることを示しながら、複雑なモデルに対するスケーラビリティの課題を明らかにしている。
この研究は、事前訓練されたDNNの公平性テストと検証のための厳密で体系的な方法を提供することにより、臨界領域におけるアルゴリズム的公正性を向上させる。
関連論文リスト
- Fake it till You Make it: Reward Modeling as Discriminative Prediction [49.31309674007382]
GAN-RMは、手動の嗜好アノテーションと明示的な品質次元工学を排除した効率的な報酬モデリングフレームワークである。
提案手法は,少数の対象サンプルを識別し,報酬モデルを訓練する。
実験では、GAN-RMが複数の主要なアプリケーションにまたがって有効であることを実証した。
論文 参考訳(メタデータ) (2025-06-16T17:59:40Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Learning Fairer Representations with FairVIC [0.0]
自動意思決定システムにおけるバイアスの緩和は、公平さとデータセット固有のバイアスのニュアンスな定義のために重要な課題である。
学習中の損失関数に分散項、不変項、共分散項を統合することにより、ニューラルネットワークの公平性を高める革新的なアプローチであるFairVICを導入する。
ベンチマークデータセットにおけるFairVICを,グループと個人の両方の公正性を考慮して比較して評価し,精度と公正性のトレードオフに関するアブレーション研究を行う。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairify: Fairness Verification of Neural Networks [7.673007415383724]
ニューラルネットワーク(NN)モデルにおける個々の公正性を検証するためのFairifyを提案する。
提案手法は入力分割を採用し,各パーティション毎にNNをプルークし,公平性検証や反例を提供する。
4つの異なるソースから収集した25の現実世界のニューラルネットワーク上でFairifyを評価した。
論文 参考訳(メタデータ) (2022-12-08T23:31:06Z) - FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks [9.967054059014691]
ニューラルネットワークモデルの個々の公正性を検証し、トレーニングし、保証する問題について検討する。
フェアネスを強制する一般的なアプローチは、フェアネスの概念をモデルのパラメータに関する制約に変換することである。
本研究では,予測時の公正性制約を確実に実施するための逆例誘導後処理手法を開発した。
論文 参考訳(メタデータ) (2022-06-01T15:06:11Z) - Probabilistic Verification of Neural Networks Against Group Fairness [21.158245095699456]
本稿では,ニューラルネットワークの公正性に対する公式な検証手法を提案する。
提案手法は,ユーザが提供するニューラルネットワークからマルコフ連鎖を学習するためのアプローチに基づいている。
分析の結果、神経重みは公平性を改善するために最適化できることが実証された。
論文 参考訳(メタデータ) (2021-07-18T04:34:31Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。