論文の概要: FairProof : Confidential and Certifiable Fairness for Neural Networks
- arxiv url: http://arxiv.org/abs/2402.12572v2
- Date: Tue, 16 Jul 2024 00:56:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-17 21:30:11.473612
- Title: FairProof : Confidential and Certifiable Fairness for Neural Networks
- Title(参考訳): FairProof : ニューラルネットワークの信頼性と証明可能な公正性
- Authors: Chhavi Yadav, Amrita Roy Chowdhury, Dan Boneh, Kamalika Chaudhuri,
- Abstract要約: 消費者の心の中では、機械学習モデルの公平性に関する不信が高まっている。
我々は、Zero-Knowledge Proofsを使用して、機密性を保ちながらモデルの公正性を公に検証するシステムであるnameを提案する。
- 参考スコア(独自算出の注目度): 40.84742403401731
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are increasingly used in societal applications, yet legal and privacy concerns demand that they very often be kept confidential. Consequently, there is a growing distrust about the fairness properties of these models in the minds of consumers, who are often at the receiving end of model predictions. To this end, we propose \name -- a system that uses Zero-Knowledge Proofs (a cryptographic primitive) to publicly verify the fairness of a model, while maintaining confidentiality. We also propose a fairness certification algorithm for fully-connected neural networks which is befitting to ZKPs and is used in this system. We implement \name in Gnark and demonstrate empirically that our system is practically feasible. Code is available at https://github.com/infinite-pursuits/FairProof.
- Abstract(参考訳): 機械学習モデルは、社会的アプリケーションでますます使われているが、法的およびプライバシー上の懸念は、しばしば秘密にしておくことを要求する。
その結果、モデル予測の受信端にいる消費者の心の中で、これらのモデルの公平性に関する不信が高まっている。
この目的のために,Zero-Knowledge Proofs (暗号プリミティブ) を用いて,機密性を保ちながらモデルの公正性を公に検証するシステムである \name を提案する。
また、ZKPに適合し、本システムで使用される完全連結ニューラルネットワークの公平性検証アルゴリズムを提案する。
Gnark で \name を実装し、我々のシステムが実際に実現可能であることを実証的に示す。
コードはhttps://github.com/infinite-pursuits/FairProof.comで入手できる。
関連論文リスト
- Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Verifiable Fairness: Privacy-preserving Computation of Fairness for
Machine Learning Systems [6.622091932474424]
機械学習(ML)モデルの公正性を計算し検証するためのセキュアで検証可能なプライバシ保護プロトコルであるFairness as a Service(F)を提案する。
すべての入力データの暗号は、監査人、社会活動家、専門家などすべての人に公開され、プロセスの正確性を検証する。
論文 参考訳(メタデータ) (2023-09-12T09:00:03Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairify: Fairness Verification of Neural Networks [7.673007415383724]
ニューラルネットワーク(NN)モデルにおける個々の公正性を検証するためのFairifyを提案する。
提案手法は入力分割を採用し,各パーティション毎にNNをプルークし,公平性検証や反例を提供する。
4つの異なるソースから収集した25の現実世界のニューラルネットワーク上でFairifyを評価した。
論文 参考訳(メタデータ) (2022-12-08T23:31:06Z) - Privacy-Preserving Credit Card Fraud Detection using Homomorphic
Encryption [0.0]
本稿では,同型暗号を用いた暗号化トランザクションにおける私的不正検出システムを提案する。
XGBoostとフィードフォワードニューラルネットワークという2つのモデルは、データの不正検出として訓練されている。
XGBoostモデルは、ニューラルネットワークの296msに比べて、推論が6ms以下で、パフォーマンスが向上している。
論文 参考訳(メタデータ) (2022-11-12T14:28:17Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks [9.967054059014691]
ニューラルネットワークモデルの個々の公正性を検証し、トレーニングし、保証する問題について検討する。
フェアネスを強制する一般的なアプローチは、フェアネスの概念をモデルのパラメータに関する制約に変換することである。
本研究では,予測時の公正性制約を確実に実施するための逆例誘導後処理手法を開発した。
論文 参考訳(メタデータ) (2022-06-01T15:06:11Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。