論文の概要: Decentralized Attribution of Generative Models
- arxiv url: http://arxiv.org/abs/2010.13974v4
- Date: Wed, 28 Apr 2021 13:04:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:41:07.939006
- Title: Decentralized Attribution of Generative Models
- Title(参考訳): 生成モデルの分散化帰属
- Authors: Changhoon Kim, Yi Ren, Yezhou Yang
- Abstract要約: 分散属性は、各ユーザ-エンドモデルに関連付けられたバイナリ分類器に依存する。
帰属性を低く保証するキーの十分な条件を開発する。
本手法は,MNIST,CelebA,FFHQのデータセットを用いて検証した。
- 参考スコア(独自算出の注目度): 35.80513184958743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Growing applications of generative models have led to new threats such as
malicious personation and digital copyright infringement. One solution to these
threats is model attribution, i.e., the identification of user-end models where
the contents under question are generated from. Existing studies showed
empirical feasibility of attribution through a centralized classifier trained
on all user-end models. However, this approach is not scalable in reality as
the number of models ever grows. Neither does it provide an attributability
guarantee. To this end, this paper studies decentralized attribution, which
relies on binary classifiers associated with each user-end model. Each binary
classifier is parameterized by a user-specific key and distinguishes its
associated model distribution from the authentic data distribution. We develop
sufficient conditions of the keys that guarantee an attributability lower
bound. Our method is validated on MNIST, CelebA, and FFHQ datasets. We also
examine the trade-off between generation quality and robustness of attribution
against adversarial post-processes.
- Abstract(参考訳): 生成モデルの応用が増加すれば、悪意のある人格化やデジタル著作権侵害といった新たな脅威が生まれている。
これらの脅威に対する解決策の1つは、モデル属性、すなわち、問題のコンテンツが生成されるユーザエンドモデルの識別である。
既存の研究では、すべてのユーザ・エンド・モデルで訓練された集中型分類器による属性の実証的実現可能性を示した。
しかし、モデル数が増えるにつれ、このアプローチは現実にはスケーラブルではありません。
どちらも属性保証を提供していません。
そこで本稿では,各ユーザエンドモデルに関連付けられたバイナリ分類子に依存する分散アトリビューションについて検討する。
各バイナリ分類器はユーザ固有のキーでパラメータ化され、関連するモデル分布と本物のデータ分布を区別する。
帰属性を低く保証するキーの十分な条件を開発する。
本手法は,MNIST,CelebA,FFHQのデータセットを用いて検証した。
また,世代品質と対向後プロセスに対する帰属性の堅牢性とのトレードオフについても検討した。
関連論文リスト
- Model Integrity when Unlearning with T2I Diffusion Models [11.321968363411145]
「忘れ分布からのサンプルを特徴とする特定種類の画像の生成を減らすために、近似機械学習アルゴリズムを提案する。」
次に、既存のベースラインと比較してモデルの整合性を保つ上で優れた効果を示す未学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-04T13:15:28Z) - REEF: Representation Encoding Fingerprints for Large Language Models [53.679712605506715]
REEFは、被疑者モデルと被害者モデルの表現との中心となるカーネルアライメントの類似性を計算し、比較する。
このトレーニング不要のREEFは、モデルの一般的な能力を損なうことなく、シーケンシャルな微調整、プルーニング、モデルマージ、置換に堅牢である。
論文 参考訳(メタデータ) (2024-10-18T08:27:02Z) - Towards Scalable and Robust Model Versioning [30.249607205048125]
ディープラーニングモデルへのアクセスを目的とした悪意ある侵入が増えている。
異なる攻撃特性を持つモデルの複数バージョンを生成する方法を示す。
モデル学習データにパラメータ化された隠れ分布を組み込むことでこれを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-17T19:55:49Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - DeepHider: A Multi-module and Invisibility Watermarking Scheme for
Language Model [0.0]
本稿では,モデル分類モジュールを置換し,モデル全体の微調整を行う新たな脅威を提案する。
私たちは、盗難の所有権ステートメントを防ぐために、タンパー保護やトレーサビリティといったブロックチェーンの特性を使用します。
実験の結果,提案手法は100%の透かし検証精度でオーナシップの検証に成功した。
論文 参考訳(メタデータ) (2022-08-09T11:53:24Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - How Faithful is your Synthetic Data? Sample-level Metrics for Evaluating
and Auditing Generative Models [95.8037674226622]
ドメインに依存しない方法で生成モデルの忠実度,多様性,一般化性能を特徴付ける3次元評価指標を提案する。
当社のメトリクスは、精度リコール分析により統計的発散測定を統合し、モデル忠実度と多様性のサンプルおよび分布レベルの診断を可能にします。
論文 参考訳(メタデータ) (2021-02-17T18:25:30Z) - Variational Autoencoder with Embedded Student-$t$ Mixture Model for
Authorship Attribution [13.196225569878761]
候補作家の有限セットと対応するラベル付きテキストが与えられた場合、著者のどちらが匿名または論争されたテキストの別のセットを書いたかを決定することが目的である。
本稿では,この教師付き分類タスクを扱う確率論的自動符号化フレームワークを提案する。
Amazonのレビューデータセットに対する実験は、提案手法の優れた性能を示している。
論文 参考訳(メタデータ) (2020-05-28T11:52:32Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。