論文の概要: Verifiable Fairness: Privacy-preserving Computation of Fairness for
Machine Learning Systems
- arxiv url: http://arxiv.org/abs/2309.06061v1
- Date: Tue, 12 Sep 2023 09:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 13:52:57.485398
- Title: Verifiable Fairness: Privacy-preserving Computation of Fairness for
Machine Learning Systems
- Title(参考訳): 検証可能な公平性: マシンラーニングシステムにおける公平性のプライバシー保護計算
- Authors: Ehsan Toreini and Maryam Mehrnezhad and Aad van Moorsel
- Abstract要約: 機械学習(ML)モデルの公正性を計算し検証するためのセキュアで検証可能なプライバシ保護プロトコルであるFairness as a Service(F)を提案する。
すべての入力データの暗号は、監査人、社会活動家、専門家などすべての人に公開され、プロセスの正確性を検証する。
- 参考スコア(独自算出の注目度): 6.622091932474424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair machine learning is a thriving and vibrant research topic. In this
paper, we propose Fairness as a Service (FaaS), a secure, verifiable and
privacy-preserving protocol to computes and verify the fairness of any machine
learning (ML) model. In the deisgn of FaaS, the data and outcomes are
represented through cryptograms to ensure privacy. Also, zero knowledge proofs
guarantee the well-formedness of the cryptograms and underlying data. FaaS is
model--agnostic and can support various fairness metrics; hence, it can be used
as a service to audit the fairness of any ML model. Our solution requires no
trusted third party or private channels for the computation of the fairness
metric. The security guarantees and commitments are implemented in a way that
every step is securely transparent and verifiable from the start to the end of
the process. The cryptograms of all input data are publicly available for
everyone, e.g., auditors, social activists and experts, to verify the
correctness of the process. We implemented FaaS to investigate performance and
demonstrate the successful use of FaaS for a publicly available data set with
thousands of entries.
- Abstract(参考訳): 公正な機械学習は、繁栄し活気ある研究トピックである。
本稿では,Fairness as a Service(FaaS)を提案する。これはセキュアで検証可能なプライバシ保護プロトコルで,機械学習(ML)モデルの公正性を計算し,検証する。
FaaSでは、プライバシを確保するために、データと結果が暗号で表現される。
また、ゼロ知識証明は暗号文と基礎となるデータの整形性を保証する。
FaaSはモデルに依存しないため、さまざまなフェアネスメトリクスをサポートすることができるため、任意のMLモデルのフェアネスを監査するサービスとして使用できる。
私たちのソリューションでは、公正度メトリックの計算には信頼できるサードパーティやプライベートチャネルは必要ありません。
セキュリティ保証とコミットメントは、各ステップがプロセスの開始から終了までセキュアに透過的かつ検証可能な方法で実装されます。
すべての入力データの暗号は、監査人、社会活動家、専門家などすべての人に公開され、プロセスの正確性を検証する。
faasを実装して、パフォーマンスを調査し、数千のエントリを持つ公開データセットでfaasが成功したことを実証しました。
関連論文リスト
- Privacy-Preserving Verifiable Neural Network Inference Service [4.131956503199438]
我々は,クライアントデータサンプルのプライバシを保存するために,プライバシ保護と検証が可能なCNN推論手法を開発した。
vPINは、クライアントデータのプライバシ保証と証明可能な検証性を提供しながら、証明サイズの観点から高い効率を達成する。
論文 参考訳(メタデータ) (2024-11-12T01:09:52Z) - OATH: Efficient and Flexible Zero-Knowledge Proofs of End-to-End ML Fairness [13.986886689256128]
Zero-Knowledge Proofs of Fairnessは、サービスプロバイダが彼らのモデルが多様な人口動態を公平に提供できることを検証することによって、フェアネスの非準拠に対処する。
OATHはクライアント対面通信とオフライン監査フェーズを効果的にデプロイできるフレームワークである。
OATHは、ニューラルネットワークZKPoFの以前の作業よりも、ランタイムを1343倍改善し、はるかに大きなモデルにスケールアップする。
論文 参考訳(メタデータ) (2024-09-17T16:00:35Z) - FairProof : Confidential and Certifiable Fairness for Neural Networks [40.84742403401731]
消費者の心の中では、機械学習モデルの公平性に関する不信が高まっている。
我々は、Zero-Knowledge Proofsを使用して、機密性を保ちながらモデルの公正性を公に検証するシステムであるnameを提案する。
論文 参考訳(メタデータ) (2024-02-19T21:53:43Z) - HE-MAN -- Homomorphically Encrypted MAchine learning with oNnx models [0.23624125155742057]
ホモモルフィック暗号化(FHE)は、プライバシを諦めることなくMLサービスを使用する個人を可能にする、有望なテクニックである。
我々は、ONNXモデルと同型暗号化データとの推論をプライバシー保護するためのオープンソースの機械学習ツールセットであるHE-MANを紹介する。
HE-MANは以前の作業と比較して、ONNXフォーマットの幅広いMLモデルをサポートしているが、精度を犠牲にしない。
論文 参考訳(メタデータ) (2023-02-16T12:37:14Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - FAT Forensics: A Python Toolbox for Implementing and Deploying Fairness,
Accountability and Transparency Algorithms in Predictive Systems [69.24490096929709]
FAT ForensicsというオープンソースのPythonパッケージを開発しました。
予測アルゴリズムの重要な公平性、説明可能性、透明性を検査することができる。
私たちのツールボックスは、予測パイプラインのすべての要素を評価することができます。
論文 参考訳(メタデータ) (2022-09-08T13:25:02Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。