論文の概要: On Attribution of Deepfakes
- arxiv url: http://arxiv.org/abs/2008.09194v2
- Date: Wed, 3 Mar 2021 21:41:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 03:23:02.559069
- Title: On Attribution of Deepfakes
- Title(参考訳): ディープフェイクの属性について
- Authors: Baiwu Zhang, Jin Peng Zhou, Ilia Shumailov, Nicolas Papernot
- Abstract要約: 生成的敵ネットワークは メディアを効果的に 合成し 変更できるようにしました
現在、悪意のある個人は、これらの機械生成メディア(ディープフェイク)を使って、社会的言論を操っている。
そこで本研究では,各生成モデルのエントロピー源を最適化し,ディープフェイクをモデルの一つに属性付ける手法を提案する。
- 参考スコア(独自算出の注目度): 25.334701225923517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Progress in generative modelling, especially generative adversarial networks,
have made it possible to efficiently synthesize and alter media at scale.
Malicious individuals now rely on these machine-generated media, or deepfakes,
to manipulate social discourse. In order to ensure media authenticity, existing
research is focused on deepfake detection. Yet, the adversarial nature of
frameworks used for generative modeling suggests that progress towards
detecting deepfakes will enable more realistic deepfake generation. Therefore,
it comes at no surprise that developers of generative models are under the
scrutiny of stakeholders dealing with misinformation campaigns. At the same
time, generative models have a lot of positive applications. As such, there is
a clear need to develop tools that ensure the transparent use of generative
modeling, while minimizing the harm caused by malicious applications.
Our technique optimizes over the source of entropy of each generative model
to probabilistically attribute a deepfake to one of the models. We evaluate our
method on the seminal example of face synthesis, demonstrating that our
approach achieves 97.62% attribution accuracy, and is less sensitive to
perturbations and adversarial examples. We discuss the ethical implications of
our work, identify where our technique can be used, and highlight that a more
meaningful legislative framework is required for a more transparent and ethical
use of generative modeling. Finally, we argue that model developers should be
capable of claiming plausible deniability and propose a second framework to do
so -- this allows a model developer to produce evidence that they did not
produce media that they are being accused of having produced.
- Abstract(参考訳): 生成的モデリングの進歩、特に生成的敵ネットワークは、大規模にメディアを効率的に合成し、変更することを可能にする。
現在、悪意のある個人は、これらの機械生成メディア(ディープフェイク)を使って、社会的言論を操作する。
メディアの信頼性を確保するため、既存の研究はディープフェイク検出に重点を置いている。
しかし、生成モデリングに使用されるフレームワークの敵対的性質は、ディープフェイク検出の進歩がより現実的なディープフェイク生成を可能にすることを示唆している。
したがって、生成モデルの開発者が、誤情報キャンペーンを扱うステークホルダーの監視下にあることは驚くにあたらない。
同時に、生成モデルには多くの肯定的な応用がある。
そのため、悪意あるアプリケーションによる害を最小限に抑えつつ、生成モデリングの透過的な利用を保証するツールを開発する必要がある。
本手法は,各生成モデルのエントロピー源を最適化し,deepfakeを1つのモデルに確率論的に分類する。
顔合成の初歩的な例について評価し, 提案手法が97.62%の属性精度を実現し, 摂動や敵対例に敏感でないことを示す。
我々は、我々の仕事の倫理的意味を議論し、我々のテクニックがどこで使えるかを特定し、より透明で倫理的な生成モデリングの使用のために、より有意義な立法枠組みが必要であることを強調する。
最後に、モデル開発者は、プラプシブルなデニビリティを主張でき、それを行うための第2のフレームワークを提案するべきである、と論じます。
関連論文リスト
- Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Deep Generative Modeling Reshapes Compression and Transmission: From Efficiency to Resiliency [12.129722150469968]
本稿では,データ圧縮を効率よく,伝送エラーを回復力に隠蔽する深層生成モデルの二重機能性を示す。
我々は,多くの大規模生成モデルのカーネルが,意味的潜伏変数間の複雑な関係を捉える強力な予測器であることを示す。
論文 参考訳(メタデータ) (2024-06-10T16:36:02Z) - An Analysis of Recent Advances in Deepfake Image Detection in an Evolving Threat Landscape [11.45988746286973]
ディープフェイクまたは合成画像は、オンラインプラットフォームに深刻なリスクをもたらす。
われわれは8つの最先端の検出器を研究し、配備の準備が整っていないと論じている。
論文 参考訳(メタデータ) (2024-04-24T21:21:50Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。