論文の概要: Low Resource Reconstruction Attacks Through Benign Prompts
- arxiv url: http://arxiv.org/abs/2507.07947v1
- Date: Thu, 10 Jul 2025 17:32:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.513678
- Title: Low Resource Reconstruction Attacks Through Benign Prompts
- Title(参考訳): 良性プロンプトによる低資源リコンストラクション攻撃
- Authors: Sol Yarkoni, Roi Livni,
- Abstract要約: 我々は、低リソースを必要とする新たな攻撃を考案し、実際のトレーニングセットへのアクセスをほとんど、あるいは全く想定しない。
これは、画像がインフォームされたユーザによって、意図せずに再構築されるリスクを強調します。
- 参考スコア(独自算出の注目度): 12.077836270816622
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The recent advances in generative models such as diffusion models have raised several risks and concerns related to privacy, copyright infringements and data stewardship. To better understand and control the risks, various researchers have created techniques, experiments and attacks that reconstruct images, or part of images, from the training set. While these techniques already establish that data from the training set can be reconstructed, they often rely on high-resources, excess to the training set as well as well-engineered and designed prompts. In this work, we devise a new attack that requires low resources, assumes little to no access to the actual training set, and identifies, seemingly, benign prompts that lead to potentially-risky image reconstruction. This highlights the risk that images might even be reconstructed by an uninformed user and unintentionally. For example, we identified that, with regard to one existing model, the prompt ``blue Unisex T-Shirt'' can generate the face of a real-life human model. Our method builds on an intuition from previous works which leverages domain knowledge and identifies a fundamental vulnerability that stems from the use of scraped data from e-commerce platforms, where templated layouts and images are tied to pattern-like prompts.
- Abstract(参考訳): 拡散モデルのような生成モデルの最近の進歩は、プライバシー、著作権侵害、データスチュワードシップに関連するいくつかのリスクと懸念を提起している。
リスクをよりよく理解し、コントロールするために、さまざまな研究者がトレーニングセットから画像や画像の一部を再構築する技術、実験、攻撃を開発した。
これらのテクニックは、トレーニングセットからのデータを再構築できることをすでに確立していますが、多くの場合、トレーニングセットだけでなく、十分にエンジニアリングされ設計されたプロンプトにも依存しています。
本研究では,少ないリソースを必要とする新たな攻撃を考案し,実際のトレーニングセットへのアクセスをほとんど,あるいはまったく前提とせず,潜在的にリスキーなイメージ再構築につながる可能性のある,良質なプロンプトを識別する。
これは、画像がインフォームされたユーザによって、意図せずに再構築されるリスクを強調します。
例えば、ある既存モデルについて、'blue Unisex T-Shirt'' というプロンプトが現実の人間モデルの顔を生成することを確認した。
提案手法は, ドメイン知識を活用し, テンプレートレイアウトや画像がパターン的なプロンプトに結びついている電子商取引プラットフォームからのスクラップデータの使用に起因する, 根本的な脆弱性を識別する。
関連論文リスト
- Safer Prompts: Reducing IP Risk in Visual Generative AI [5.545107154611679]
我々は,画像生成におけるIP侵害リスクを軽減するために,迅速な技術技術の有効性を評価する。
その結果,思考の連鎖と課題指導の連鎖は,生成した画像と拡散モデルの訓練データとの類似性を著しく低下させることがわかった。
論文 参考訳(メタデータ) (2025-05-06T09:10:12Z) - Towards Reliable Verification of Unauthorized Data Usage in Personalized Text-to-Image Diffusion Models [23.09033991200197]
新しいパーソナライズ技術は、特定のテーマやスタイルのイメージを作成するために、事前訓練されたベースモデルをカスタマイズするために提案されている。
このような軽量なソリューションは、パーソナライズされたモデルが不正なデータからトレーニングされているかどうかに関して、新たな懸念を生じさせる。
我々は、ブラックボックスパーソナライズされたテキスト・ツー・イメージ拡散モデルにおいて、不正なデータ使用を積極的に追跡する新しい手法であるSIRENを紹介する。
論文 参考訳(メタデータ) (2024-10-14T12:29:23Z) - Exploring User-level Gradient Inversion with a Diffusion Prior [17.2657358645072]
本稿では,大規模なバッチ設定の回復性を高めるために,デノナイジング拡散モデルを強い画像として適用した新しい勾配反転攻撃を提案する。
個々のサンプルを再構築し,大規模なバッチや画像サイズに苦しむ従来の攻撃とは違って,本手法では,ユーザに対応する機密性の高い共有セマンティック情報をキャプチャする代表画像の復元が目的である。
論文 参考訳(メタデータ) (2024-09-11T14:20:47Z) - Reconstructing Training Data From Real World Models Trained with Transfer Learning [29.028185455223785]
本稿では,高解像度画像上で訓練されたモデルに対して,現実的な設定でデータ再構成を可能にする新しい手法を提案する。
本手法は実世界のシナリオに対してarXiv:2206.07758の再構成方式を適用する。
そこで本研究では,数千の候補からの良好な復元を識別するためのクラスタリングに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-22T17:59:10Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - An Analysis of Recent Advances in Deepfake Image Detection in an Evolving Threat Landscape [11.45988746286973]
ディープフェイクまたは合成画像は、オンラインプラットフォームに深刻なリスクをもたらす。
われわれは8つの最先端の検出器を研究し、配備の準備が整っていないと論じている。
論文 参考訳(メタデータ) (2024-04-24T21:21:50Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。