論文の概要: A2-DIDM: Privacy-preserving Accumulator-enabled Auditing for Distributed Identity of DNN Model
- arxiv url: http://arxiv.org/abs/2405.04108v1
- Date: Tue, 7 May 2024 08:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 14:49:39.380701
- Title: A2-DIDM: Privacy-preserving Accumulator-enabled Auditing for Distributed Identity of DNN Model
- Title(参考訳): A2-DIDM:DNNモデルの分散IDのためのプライバシ保護型累積型監査
- Authors: Tianxiu Xie, Keke Gai, Jing Yu, Liehuang Zhu, Kim-Kwang Raymond Choo,
- Abstract要約: DNNモデルの分散IDのための新しい累積型監査法(A2-DIDM)を提案する。
A2-DIDMは、ブロックチェーンとゼロ知識技術を使用して、軽量なオンチェーンオーナシップ認証を確保しながら、データの保護とプライバシ機能を実現している。
- 参考スコア(独自算出の注目度): 43.10692581757967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent booming development of Generative Artificial Intelligence (GenAI) has facilitated an emerging model commercialization for the purpose of reinforcement on model performance, such as licensing or trading Deep Neural Network (DNN) models. However, DNN model trading may trigger concerns of the unauthorized replications or misuses over the model, so that the benefit of the model ownership will be violated. Model identity auditing is a challenging issue in protecting intellectual property of DNN models and verifying the integrity and ownership of models for guaranteeing trusts in transactions is one of the critical obstacles. In this paper, we focus on the above issue and propose a novel Accumulator-enabled Auditing for Distributed Identity of DNN Model (A2-DIDM) that utilizes blockchain and zero-knowledge techniques to protect data and function privacy while ensuring the lightweight on-chain ownership verification. The proposed model presents a scheme of identity records via configuring model weight checkpoints with corresponding zero-knowledge proofs, which incorporates predicates to capture incremental state changes in model weight checkpoints. Our scheme ensures both computational integrity of DNN training process and programmability, so that the uniqueness of the weight checkpoint sequence in a DNN model is preserved, ensuring the correctness of the model identity auditing. In addition, A2-DIDM also addresses privacy protections in distributed identity via a proposed method of accumulators. We systematically analyze the security and robustness of our proposed model and further evaluate the effectiveness and usability of auditing DNN model identities.
- Abstract(参考訳): ジェネレーティブ・人工知能(GenAI)の最近のブームは、ライセンスやディープニューラルネットワーク(Deep Neural Network, DNN)モデルのトレーディングといったモデルパフォーマンスの向上を目的として、新たなモデル商業化を促進している。
しかし、DNNモデルのトレーディングは、モデルに対する不正な複製や誤用の懸念を引き起こす可能性があるため、モデルのオーナシップの利点が侵害される。
モデルアイデンティティ監査は、DNNモデルの知的財産権保護と、トランザクションにおける信頼を保証するためのモデルの完全性とオーナシップの検証において難しい問題である。
本稿では、ブロックチェーンとゼロ知識技術を用いて、軽量なオンチェーンオーナシップ検証を確保しつつ、データの保護とプライバシ機能を実現する、新しいA2-DIDM(A2-DIDM)を提案する。
モデル重みチェックポイントのインクリメンタルな状態変化を捉えるための述語を組み込んだゼロ知識証明を用いてモデル重みチェックポイントを設定することで、モデル重みチェックポイントの同一性レコードのスキームを提案する。
DNNモデルの重みチェックポイントシーケンスの特異性が維持され,モデルの同一性監査の正確さが保証される。
さらに、A2-DIDMは、アキュムレータの提案方法を通じて、分散IDのプライバシ保護にも対処する。
提案するモデルのセキュリティと堅牢性を体系的に分析し,DNNモデルの同一性監査の有効性とユーザビリティを更に評価する。
関連論文リスト
- Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - ZKROWNN: Zero Knowledge Right of Ownership for Neural Networks [14.435398248169774]
ZKROWNNはZero-Knowledge Proofs(ZKP)を利用した最初のエンドツーエンドフレームワークである。
ZKROWNNは、サードパーティのクライアントがモデルオーナシップを1秒以内で検証できるようにする。
論文 参考訳(メタデータ) (2023-09-13T08:06:13Z) - Confidence Attention and Generalization Enhanced Distillation for
Continuous Video Domain Adaptation [62.458968086881555]
連続ビデオドメイン適応(CVDA、Continuous Video Domain Adaptation)は、ソースモデルが個々の変更対象ドメインに適応する必要があるシナリオである。
CVDAの課題に対処するため,遺伝子組み換え型自己知識解離(CART)を用いた信頼性保証ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-18T16:40:10Z) - InFIP: An Explainable DNN Intellectual Property Protection Method based
on Intrinsic Features [12.037142903022891]
本稿では,説明可能な人工知能に基づくディープニューラルネットワーク(DNN)の解釈可能な知的財産保護手法を提案する。
提案手法はDNNモデルを変更せず,オーナシップ検証の決定は解釈可能である。
実験結果から,指紋はモデルの所有権検証に有効であることが示された。
論文 参考訳(メタデータ) (2022-10-14T03:12:36Z) - Robust and Lossless Fingerprinting of Deep Neural Networks via Pooled
Membership Inference [17.881686153284267]
ディープニューラルネットワーク(DNN)は、すでに多くのアプリケーション分野で大きな成功を収めており、私たちの社会に大きな変化をもたらしています。
DNNの知的財産権(IP)を侵害から保護する方法は、最も重要かつ非常に困難なトピックの1つである。
本稿では,DNNモデルのIPを保護するために,Emphpooled Memberation Inference (PMI) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-09T04:06:29Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。