論文の概要: FairZK: A Scalable System to Prove Machine Learning Fairness in Zero-Knowledge
- arxiv url: http://arxiv.org/abs/2505.07997v2
- Date: Mon, 19 May 2025 02:28:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 12:45:56.128997
- Title: FairZK: A Scalable System to Prove Machine Learning Fairness in Zero-Knowledge
- Title(参考訳): FairZK:ゼロ知識における機械学習の公正性を証明するスケーラブルシステム
- Authors: Tianyu Zhang, Shen Dong, O. Deniz Kose, Yanning Shen, Yupeng Zhang,
- Abstract要約: モデル所有者は機械学習モデルが公正であることを一般大衆に納得させることができる。
我々は、ロジスティック回帰モデルとディープニューラルネットワークモデルの公正性に関する新しい境界を導出する。
ゼロ知識における機械学習の公平性を証明するシステムであるFairZKを完全に実装した。
- 参考スコア(独自算出の注目度): 24.160206914291145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of machine learning techniques, ensuring the fairness of decisions made by machine learning algorithms has become of great importance in critical applications. However, measuring fairness often requires full access to the model parameters, which compromises the confidentiality of the models. In this paper, we propose a solution using zero-knowledge proofs, which allows the model owner to convince the public that a machine learning model is fair while preserving the secrecy of the model. To circumvent the efficiency barrier of naively proving machine learning inferences in zero-knowledge, our key innovation is a new approach to measure fairness only with model parameters and some aggregated information of the input, but not on any specific dataset. To achieve this goal, we derive new bounds for the fairness of logistic regression and deep neural network models that are tighter and better reflecting the fairness compared to prior work. Moreover, we develop efficient zero-knowledge proof protocols for common computations involved in measuring fairness, including the spectral norm of matrices, maximum, absolute value, and fixed-point arithmetic. We have fully implemented our system, FairZK, that proves machine learning fairness in zero-knowledge. Experimental results show that FairZK is significantly faster than the naive approach and an existing scheme that use zero-knowledge inferences as a subroutine. The prover time is improved by 3.1x--1789x depending on the size of the model and the dataset. FairZK can scale to a large model with 47 million parameters for the first time, and generates a proof for its fairness in 343 seconds. This is estimated to be 4 orders of magnitude faster than existing schemes, which only scale to small models with hundreds to thousands of parameters.
- Abstract(参考訳): 機械学習技術の台頭により、機械学習アルゴリズムによる決定の公平性を保証することが、重要なアプリケーションにおいて非常に重要になっている。
しかし、公平さを測定するにはモデルパラメータへの完全なアクセスが必要であることが多く、モデルの機密性を損なう。
本稿では,モデル所有者がモデルの機密性を保ちながら,機械学習モデルが公正であることを一般大衆に納得させることが可能なゼロ知識証明を用いたソリューションを提案する。
機械学習推論をゼロ知識で否定的に証明する効率障壁を回避するために、我々の重要なイノベーションは、モデルパラメータと入力の集約された情報のみを用いて公正性を測定するための新しいアプローチであり、特定のデータセットには適用されない。
この目的を達成するために、ロジスティック回帰モデルとディープニューラルネットワークモデルの公正性に対する新たな境界を導出する。
さらに、行列のスペクトルノルム、最大値、絶対値、固定点算術など、フェアネスの測定に関わる共通計算のための効率的なゼロ知識証明プロトコルを開発する。
ゼロ知識における機械学習の公平性を証明するシステムであるFairZKを完全に実装した。
実験結果から,FairZKはナイーブアプローチよりもはるかに高速であり,ゼロ知識推論をサブルーチンとして利用する既存のスキームであることがわかった。
証明時間はモデルとデータセットのサイズに応じて3.1x--1789xに改善される。
FairZKは4700万のパラメータを持つ大きなモデルに初めてスケールでき、343秒でその公正性の証明を生成する。
これは既存のスキームよりも4桁早く、数百から数千のパラメータを持つ小さなモデルにしかスケールできないと推定されている。
関連論文リスト
- Fairness and Robustness in Machine Unlearning [20.758637391023345]
機械学習アルゴリズムにおける公平性と堅牢性に焦点を当てる。
実験では、現在の最先端の非学習アルゴリズムが敵攻撃に対する脆弱性を実証している。
中間層と最後の層でのアンラーニングが時間とメモリの複雑さに十分で費用対効果があることを実証する。
論文 参考訳(メタデータ) (2025-04-18T10:31:44Z) - Getting More Juice Out of the SFT Data: Reward Learning from Human Demonstration Improves SFT for LLM Alignment [65.15914284008973]
我々は、報酬モデルと政策モデルを同時に構築するために、逆強化学習(IRL)技術を活用することを提案する。
提案アルゴリズムはIRL問題の定常解に収束することを示す。
その結果,アライメントプロセス全体を通じて報酬学習を活用することは有益であることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T07:11:05Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness Uncertainty Quantification: How certain are you that the model
is fair? [13.209748908186606]
現代の機械学習において、グラディエント・Descent(SGD)型アルゴリズムは、学習されたモデルがランダムであることを示す訓練アルゴリズムとして、ほぼ常に使用される。
本研究では,グループフェアネスを意識した信頼区間(CI)、特にDI(Disparate Impact)とDM(Disparate Mistreatment)を意識した線形二項分類器をオンラインSGD型アルゴリズムを用いてトレーニングする場合に,不公平性テストのための信頼区間(CI)を提供する。
論文 参考訳(メタデータ) (2023-04-27T04:07:58Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。