論文の概要: Trustless Audits without Revealing Data or Models
- arxiv url: http://arxiv.org/abs/2404.04500v1
- Date: Sat, 6 Apr 2024 04:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 20:58:47.863334
- Title: Trustless Audits without Revealing Data or Models
- Title(参考訳): 信頼できない監査がデータやモデルを公開せずに
- Authors: Suppakit Waiwitlikhit, Ion Stoica, Yi Sun, Tatsunori Hashimoto, Daniel Kang,
- Abstract要約: モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
- 参考スコア(独自算出の注目度): 49.23322187919369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an increasing conflict between business incentives to hide models and data as trade secrets, and the societal need for algorithmic transparency. For example, a rightsholder wishing to know whether their copyrighted works have been used during training must convince the model provider to allow a third party to audit the model and data. Finding a mutually agreeable third party is difficult, and the associated costs often make this approach impractical. In this work, we show that it is possible to simultaneously allow model providers to keep their model weights (but not architecture) and data secret while allowing other parties to trustlessly audit model and data properties. We do this by designing a protocol called ZkAudit in which model providers publish cryptographic commitments of datasets and model weights, alongside a zero-knowledge proof (ZKP) certifying that published commitments are derived from training the model. Model providers can then respond to audit requests by privately computing any function F of the dataset (or model) and releasing the output of F alongside another ZKP certifying the correct execution of F. To enable ZkAudit, we develop new methods of computing ZKPs for SGD on modern neural nets for simple recommender systems and image classification models capable of high accuracies on ImageNet. Empirically, we show it is possible to provide trustless audits of DNNs, including copyright, censorship, and counterfactual audits with little to no loss in accuracy.
- Abstract(参考訳): 貿易秘密としてモデルやデータを隠蔽するビジネスインセンティブと、アルゴリズムの透明性に対する社会的必要性の間には、対立が増している。
例えば、トレーニング中に著作権のある著作物が使用されているかどうかを知りたい権利保有者は、第三者がモデルとデータを監査できるようにするよう、モデル提供者に説得する必要がある。
相互に合意できる第三者を見つけることは困難であり、関連するコストがこのアプローチを非現実的なものにすることが多い。
本研究では,モデルプロバイダがモデルウェイト(アーキテクチャではなく)とデータシークレットを同時に保持できると同時に,他のパーティがモデルとデータプロパティを信頼性のない監査を行うことができることを示す。
我々は、ZkAuditと呼ばれるプロトコルを設計し、モデル提供者がデータセットとモデルの重みの暗号的コミットメントを公開し、公開されたコミットメントがモデルのトレーニングに由来することを証明するゼロ知識証明(ZKP)と共に実施する。
そして、モデルプロバイダは、データセット(またはモデル)の任意の関数Fをプライベートに計算し、Fの正しい実行を認証する別のZKPとともにFの出力を解放することで、監査要求に応答することができる。
経験的に、我々は、著作権、検閲、偽造監査を含むDNNの信頼性のない監査を、正確さをほとんど失わずに提供できることを示します。
関連論文リスト
- Protection against Source Inference Attacks in Federated Learning using Unary Encoding and Shuffling [6.260747047974035]
Federated Learning (FL)は、クライアントがローカルデータを開示することなく、ジョイントモデルをトレーニングすることを可能にする。
近年, ソース推論攻撃 (SIA) が提案され, クライアントが特定のデータレコードを所有しているかを正確に特定しようとする。
本稿では, 信頼性の高いシャフラーを用いて, 関節モデルの精度を損なうことなく, SIA に対する防御策を提案する。
論文 参考訳(メタデータ) (2024-11-10T13:17:11Z) - REEF: Representation Encoding Fingerprints for Large Language Models [53.679712605506715]
REEFは、被疑者モデルと被害者モデルの表現との中心となるカーネルアライメントの類似性を計算し、比較する。
このトレーニング不要のREEFは、モデルの一般的な能力を損なうことなく、シーケンシャルな微調整、プルーニング、モデルマージ、置換に堅牢である。
論文 参考訳(メタデータ) (2024-10-18T08:27:02Z) - A2-DIDM: Privacy-preserving Accumulator-enabled Auditing for Distributed Identity of DNN Model [43.10692581757967]
DNNモデルの分散IDのための新しい累積型監査法(A2-DIDM)を提案する。
A2-DIDMは、ブロックチェーンとゼロ知識技術を使用して、軽量なオンチェーンオーナシップ認証を確保しながら、データの保護とプライバシ機能を実現している。
論文 参考訳(メタデータ) (2024-05-07T08:24:50Z) - Verifiable evaluations of machine learning models using zkSNARKs [40.538081946945596]
本研究は,zkSNARKによるモデル推論を用いたモデル評価の検証手法を提案する。
結果として得られたデータセット上のモデル出力のゼロ知識計算証明は、検証可能な評価証明にパッケージ化することができる。
実世界のモデルのサンプルでこれを初めてデモし、重要な課題と設計ソリューションを強調します。
論文 参考訳(メタデータ) (2024-02-05T02:21:11Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Privacy-Preserving Financial Anomaly Detection via Federated Learning & Multi-Party Computation [17.314619091307343]
本稿では、金融機関が高精度な異常検出モデルを共同で訓練できるプライバシー保護フレームワークについて述べる。
当社のソリューションは,顧客データのプライバシを保ちながら,高精度な異常検出モデルをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2023-10-06T19:16:41Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Increasing the Cost of Model Extraction with Calibrated Proof of Work [25.096196576476885]
モデル抽出攻撃では、敵はパブリックAPIを通じて公開された機械学習モデルを盗むことができる。
我々は,モデルの予測を読み取る前に,ユーザが作業の証明を完了するように提案する。
論文 参考訳(メタデータ) (2022-01-23T12:21:28Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。