論文の概要: VeriDIP: Verifying Ownership of Deep Neural Networks through Privacy
Leakage Fingerprints
- arxiv url: http://arxiv.org/abs/2310.10656v1
- Date: Thu, 7 Sep 2023 01:58:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 02:32:28.863425
- Title: VeriDIP: Verifying Ownership of Deep Neural Networks through Privacy
Leakage Fingerprints
- Title(参考訳): VeriDIP:プライバシー漏洩指紋によるディープニューラルネットワークのオーナシップ検証
- Authors: Aoting Hu, Zhigang Lu, Renjie Xie, Minhui Xue
- Abstract要約: マシンラーニング・アズ・ア・サービスへのデプロイは、モデルプラジャリズムを引き起こし、著作権侵害につながる。
本稿では,モデルの知的特性を検証する VeriDIP という新しいオーナシップテスト手法を提案する。
- 参考スコア(独自算出の注目度): 16.564206424838485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deploying Machine Learning as a Service gives rise to model plagiarism,
leading to copyright infringement. Ownership testing techniques are designed to
identify model fingerprints for verifying plagiarism. However, previous works
often rely on overfitting or robustness features as fingerprints, lacking
theoretical guarantees and exhibiting under-performance on generalized models.
In this paper, we propose a novel ownership testing method called VeriDIP,
which verifies a DNN model's intellectual property. VeriDIP makes two major
contributions. (1) It utilizes membership inference attacks to estimate the
lower bound of privacy leakage, which reflects the fingerprint of a given
model. The privacy leakage fingerprints highlight the unique patterns through
which the models memorize sensitive training datasets. (2) We introduce a novel
approach using less private samples to enhance the performance of ownership
testing.
Extensive experimental results confirm that VeriDIP is effective and
efficient in validating the ownership of deep learning models trained on both
image and tabular datasets. VeriDIP achieves comparable performance to
state-of-the-art methods on image datasets while significantly reducing
computation and communication costs. Enhanced VeriDIP demonstrates superior
verification performance on generalized deep learning models, particularly on
table-trained models. Additionally, VeriDIP exhibits similar effectiveness on
utility-preserving differentially private models compared to non-differentially
private baselines.
- Abstract(参考訳): 機械学習をサービスとして展開することは、モデルの盗作をもたらし、著作権侵害につながる。
オーナーシップテスト技術は、盗作を検証するためのモデル指紋を特定するために設計されている。
しかし、以前の作品では、しばしば過剰なフィッティングや頑健さを指紋として依存し、理論的保証を欠き、一般化されたモデルに性能不足を示す。
本稿では,DNNモデルの知的特性を検証する VeriDIP という新しいオーナシップテスト手法を提案する。
VeriDIPは2つの大きな貢献をしている。
1) あるモデルの指紋を反映したプライバシー漏洩の少ない範囲を推定するために,会員推測攻撃を利用する。
プライバシー漏洩指紋は、モデルがセンシティブなトレーニングデータセットを記憶するユニークなパターンを強調します。
2) オーナーシップテストの性能を高めるために, より少ないプライベートサンプルを用いた新しいアプローチを導入する。
広範な実験結果から,veridipは画像と表データの両方でトレーニングされたディープラーニングモデルのオーナシップを効果的かつ効率的に検証できることが確認された。
VeriDIPは、画像データセットの最先端手法に匹敵する性能を実現し、計算と通信のコストを大幅に削減する。
強化されたVeriDIPは、一般化されたディープラーニングモデル、特にテーブル学習モデルにおいて、優れた検証性能を示す。
さらに、VeriDIPは、非微分プライベートベースラインと比較して、ユーティリティ保存の差分プライベートモデルに対して同様の効果を示す。
関連論文リスト
- Towards Reliable Verification of Unauthorized Data Usage in Personalized Text-to-Image Diffusion Models [23.09033991200197]
新しいパーソナライズ技術は、特定のテーマやスタイルのイメージを作成するために、事前訓練されたベースモデルをカスタマイズするために提案されている。
このような軽量なソリューションは、パーソナライズされたモデルが不正なデータからトレーニングされているかどうかに関して、新たな懸念を生じさせる。
我々は、ブラックボックスパーソナライズされたテキスト・ツー・イメージ拡散モデルにおいて、不正なデータ使用を積極的に追跡する新しい手法であるSIRENを紹介する。
論文 参考訳(メタデータ) (2024-10-14T12:29:23Z) - IDEA: An Inverse Domain Expert Adaptation Based Active DNN IP Protection Method [8.717704777664604]
ディープニューラルネットワーク(DNN)モデルの非合法的な複製、配布、導出は、経済的損失、評判のダメージ、さらにはプライバシー侵害にも影響を及ぼす可能性がある。
提案するIDEAは、アクティブな認証とソーストレーサビリティを備えた、逆ドメインエキスパート適応に基づくプロアクティブDNNIP保護手法である。
5つのデータセットと4つのDNNモデル上でIDEAを広範囲に評価し、認証制御、原因追跡成功率、各種攻撃に対する効果を実証した。
論文 参考訳(メタデータ) (2024-09-29T09:34:33Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - FPGAN-Control: A Controllable Fingerprint Generator for Training with
Synthetic Data [7.203557048672379]
画像生成フレームワークであるFPGAN-Controlについて述べる。
指紋の識別と外観特性の絡み合いを助長する新規な外観損失を導入する。
FPGAN-Controlのメリットを,アイデンティティレベル,外観制御の程度,合成ドメイン間ギャップの低さの観点から定量的かつ定性的に示す。
論文 参考訳(メタデータ) (2023-10-29T14:30:01Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Leveraging Expert Models for Training Deep Neural Networks in Scarce
Data Domains: Application to Offline Handwritten Signature Verification [15.88604823470663]
提案方式はオフライン手書き署名検証(OffSV)に適用される。
特徴量に基づく知識蒸留(FKD)を利用したS-T構成の提案
注目すべきなのは、このテクニックを使ってトレーニングされたモデルは、3つの一般的なシグネチャデータセット間で、教師モデルに匹敵するパフォーマンスを示すことだ。
論文 参考訳(メタデータ) (2023-08-02T13:28:12Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - FedIPR: Ownership Verification for Federated Deep Neural Network Models [31.459374163080994]
これらのモデルは、複数の機関や人々が所有する貴重なトレーニングデータに基づいて構築されているため、フェデレートされた学習モデルは、盗作行為から保護されなければならない。
本稿では、FedDNNモデルの知的財産権(IPR)を主張するために、所有権署名を埋め込み、検証できる新しいフェデレーションディープニューラルネットワーク(FedDNN)のオーナシップ検証スキームについて述べる。
論文 参考訳(メタデータ) (2021-09-27T12:51:24Z) - A Multi-Level Attention Model for Evidence-Based Fact Checking [58.95413968110558]
シーケンス構造をトレーニング可能な,シンプルなモデルを提案する。
Fact extract and VERification のための大規模データセットの結果、我々のモデルはグラフベースのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-02T05:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。