論文の概要: Safer Prompts: Reducing IP Risk in Visual Generative AI
- arxiv url: http://arxiv.org/abs/2505.03338v1
- Date: Tue, 06 May 2025 09:10:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.298623
- Title: Safer Prompts: Reducing IP Risk in Visual Generative AI
- Title(参考訳): Safer Prompts: ビジュアル生成AIにおけるIPリスク低減
- Authors: Lena Reissinger, Yuanyuan Li, Anna-Carolina Haensch, Neeraj Sarna,
- Abstract要約: 我々は,画像生成におけるIP侵害リスクを軽減するために,迅速な技術技術の有効性を評価する。
その結果,思考の連鎖と課題指導の連鎖は,生成した画像と拡散モデルの訓練データとの類似性を著しく低下させることがわかった。
- 参考スコア(独自算出の注目度): 5.545107154611679
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Generative AI models have demonstrated remarkable capability in generating high-quality images from simple inputs like text prompts. However, because these models are trained on images from diverse sources, they risk memorizing and reproducing specific content, raising concerns about intellectual property (IP) infringement. Recent advances in prompt engineering offer a cost-effective way to enhance generative AI performance. In this paper, we evaluate the effectiveness of prompt engineering techniques in mitigating IP infringement risks in image generation. Our findings show that Chain of Thought Prompting and Task Instruction Prompting significantly reduce the similarity between generated images and the training data of diffusion models, thereby lowering the risk of IP infringement.
- Abstract(参考訳): Visual Generative AIモデルは、テキストプロンプトのような単純な入力から高品質な画像を生成する際、顕著な能力を示した。
しかし、これらのモデルは多様なソースの画像に基づいて訓練されているため、特定のコンテンツを記憶・再生するリスクがあり、知的財産権侵害(IP)に対する懸念が高まる。
プロンプトエンジニアリングの最近の進歩は、生成AIのパフォーマンスを向上させるためのコスト効率のよい方法を提供している。
本稿では,画像生成におけるIP侵害リスクを軽減するために,迅速な技術技術の有効性を評価する。
その結果, 思考の連鎖と課題指導の連鎖は, 生成画像と拡散モデルの訓練データとの類似性を著しく低減し, 知的財産侵害のリスクを低減していることがわかった。
関連論文リスト
- Low Resource Reconstruction Attacks Through Benign Prompts [12.077836270816622]
我々は、低リソースを必要とする新たな攻撃を考案し、実際のトレーニングセットへのアクセスをほとんど、あるいは全く想定しない。
これは、画像がインフォームされたユーザによって、意図せずに再構築されるリスクを強調します。
論文 参考訳(メタデータ) (2025-07-10T17:32:26Z) - Image Can Bring Your Memory Back: A Novel Multi-Modal Guided Attack against Image Generation Model Unlearning [28.15997901023315]
Recallは、未学習のIMGの堅牢性を損なうために設計された、新しい敵のフレームワークである。
逆効果、計算効率、意味的忠実性の点で、元のプロンプトで既存のベースラインを一貫して上回ります。
これらの結果は、現在の未学習メカニズムにおける重大な脆弱性を明らかにし、より堅牢なソリューションの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-09T02:59:01Z) - Enhancing Privacy-Utility Trade-offs to Mitigate Memorization in Diffusion Models [62.979954692036685]
PRSSを導入し, 拡散モデルにおけるクラス化自由誘導手法を改良し, 即時再編成とセマンティック・プロンプト・サーチを統合した。
当社のアプローチは一貫してプライバシーとユーティリティのトレードオフを改善し、新たな最先端技術を確立します。
論文 参考訳(メタデータ) (2025-04-25T02:51:23Z) - Harnessing Frequency Spectrum Insights for Image Copyright Protection Against Diffusion Models [26.821064889438777]
本稿では,拡散生成画像がトレーニングデータの統計的特性を忠実に保存していることを示す。
emphCoprGuardは、許可されていない画像の使用を防ぐための堅牢な周波数領域透かしフレームワークである。
論文 参考訳(メタデータ) (2025-03-14T04:27:50Z) - On the Vulnerability of Concept Erasure in Diffusion Models [13.916443687966039]
マシン・アンラーニングの研究は、ホック後のトレーニングを通じて不要なデータの影響を除去することを目的とした、様々な概念消去手法を開発した。
これらの消去技術は脆弱であり、敵に製作されたプロンプトを用いて、消去されたとされる概念のイメージを生成可能であることを示す。
本稿では, 削除コンテンツの生成を誘導できるプロンプトを検出するアルゴリズムであるRECORDを紹介する。
論文 参考訳(メタデータ) (2025-02-24T17:26:01Z) - CopyJudge: Automated Copyright Infringement Identification and Mitigation in Text-to-Image Diffusion Models [58.58208005178676]
我々は,新しい自動侵害識別フレームワークであるCopyJudgeを提案する。
我々は, 抽象フィルタ比較テストフレームワークを用いて, 侵害の可能性を評価する。
インフレクションを自動最適化する汎用LVLM方式の緩和戦略を導入する。
論文 参考訳(メタデータ) (2025-02-21T08:09:07Z) - Detecting Discrepancies Between AI-Generated and Natural Images Using Uncertainty [91.64626435585643]
本稿では,誤用と関連するリスクを軽減するために,予測不確実性を利用してAI生成画像を検出する新しい手法を提案する。
この動機は、自然画像とAI生成画像の分布差に関する基本的な仮定から生じる。
本稿では,AI生成画像の検出スコアとして,大規模事前学習モデルを用いて不確実性を計算することを提案する。
論文 参考訳(メタデータ) (2024-12-08T11:32:25Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Anonymization Prompt Learning for Facial Privacy-Preserving Text-to-Image Generation [56.46932751058042]
我々は、テキストから画像への拡散モデルのための学習可能なプロンプトプレフィックスをトレーニングし、匿名化された顔のアイデンティティを生成するよう強制する。
実験では,非同一性固有の画像生成の品質を損なうことなく,特定の個人を匿名化するAPLの匿名化性能を実証した。
論文 参考訳(メタデータ) (2024-05-27T07:38:26Z) - Protect-Your-IP: Scalable Source-Tracing and Attribution against Personalized Generation [19.250673262185767]
画像著作権のソーストレーシングと属性の統一的なアプローチを提案する。
本稿では,プロアクティブ戦略とパッシブ戦略を融合した革新的な透かし属性法を提案する。
オンラインで公開されている様々なセレブの肖像画シリーズを用いて実験を行った。
論文 参考訳(メタデータ) (2024-05-26T15:14:54Z) - Adversarial Prompt Tuning for Vision-Language Models [86.5543597406173]
AdvPT(Adversarial Prompt Tuning)は、視覚言語モデル(VLM)における画像エンコーダの対向ロバスト性を高める技術である。
我々は,AdvPTが白箱攻撃や黒箱攻撃に対する抵抗性を向上し,既存の画像処理による防御技術と組み合わせることで相乗効果を示すことを示した。
論文 参考訳(メタデータ) (2023-11-19T07:47:43Z) - CopyScope: Model-level Copyright Infringement Quantification in the
Diffusion Workflow [6.6282087165087304]
著作権侵害の定量化は、AIが生成した画像著作権トレーサビリティへの第一かつ挑戦的なステップである。
モデルレベルからAI生成画像の侵害を定量化する新しいフレームワークであるCopyScopeを提案する。
論文 参考訳(メタデータ) (2023-10-13T13:08:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。