論文の概要: Safer Prompts: Reducing IP Risk in Visual Generative AI
- arxiv url: http://arxiv.org/abs/2505.03338v1
- Date: Tue, 06 May 2025 09:10:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.298623
- Title: Safer Prompts: Reducing IP Risk in Visual Generative AI
- Title(参考訳): Safer Prompts: ビジュアル生成AIにおけるIPリスク低減
- Authors: Lena Reissinger, Yuanyuan Li, Anna-Carolina Haensch, Neeraj Sarna,
- Abstract要約: 我々は,画像生成におけるIP侵害リスクを軽減するために,迅速な技術技術の有効性を評価する。
その結果,思考の連鎖と課題指導の連鎖は,生成した画像と拡散モデルの訓練データとの類似性を著しく低下させることがわかった。
- 参考スコア(独自算出の注目度): 5.545107154611679
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Generative AI models have demonstrated remarkable capability in generating high-quality images from simple inputs like text prompts. However, because these models are trained on images from diverse sources, they risk memorizing and reproducing specific content, raising concerns about intellectual property (IP) infringement. Recent advances in prompt engineering offer a cost-effective way to enhance generative AI performance. In this paper, we evaluate the effectiveness of prompt engineering techniques in mitigating IP infringement risks in image generation. Our findings show that Chain of Thought Prompting and Task Instruction Prompting significantly reduce the similarity between generated images and the training data of diffusion models, thereby lowering the risk of IP infringement.
- Abstract(参考訳): Visual Generative AIモデルは、テキストプロンプトのような単純な入力から高品質な画像を生成する際、顕著な能力を示した。
しかし、これらのモデルは多様なソースの画像に基づいて訓練されているため、特定のコンテンツを記憶・再生するリスクがあり、知的財産権侵害(IP)に対する懸念が高まる。
プロンプトエンジニアリングの最近の進歩は、生成AIのパフォーマンスを向上させるためのコスト効率のよい方法を提供している。
本稿では,画像生成におけるIP侵害リスクを軽減するために,迅速な技術技術の有効性を評価する。
その結果, 思考の連鎖と課題指導の連鎖は, 生成画像と拡散モデルの訓練データとの類似性を著しく低減し, 知的財産侵害のリスクを低減していることがわかった。
関連論文リスト
- Enhancing Privacy-Utility Trade-offs to Mitigate Memorization in Diffusion Models [62.979954692036685]
PRSSを導入し, 拡散モデルにおけるクラス化自由誘導手法を改良し, 即時再編成とセマンティック・プロンプト・サーチを統合した。
当社のアプローチは一貫してプライバシーとユーティリティのトレードオフを改善し、新たな最先端技術を確立します。
論文 参考訳(メタデータ) (2025-04-25T02:51:23Z) - Harnessing Frequency Spectrum Insights for Image Copyright Protection Against Diffusion Models [26.821064889438777]
本稿では,拡散生成画像がトレーニングデータの統計的特性を忠実に保存していることを示す。
emphCoprGuardは、許可されていない画像の使用を防ぐための堅牢な周波数領域透かしフレームワークである。
論文 参考訳(メタデータ) (2025-03-14T04:27:50Z) - On the Vulnerability of Concept Erasure in Diffusion Models [13.916443687966039]
マシン・アンラーニングの研究は、ホック後のトレーニングを通じて不要なデータの影響を除去することを目的とした、様々な概念消去手法を開発した。
これらの消去技術は脆弱であり、敵に製作されたプロンプトを用いて、消去されたとされる概念のイメージを生成可能であることを示す。
本稿では, 削除コンテンツの生成を誘導できるプロンプトを検出するアルゴリズムであるRECORDを紹介する。
論文 参考訳(メタデータ) (2025-02-24T17:26:01Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Anonymization Prompt Learning for Facial Privacy-Preserving Text-to-Image Generation [56.46932751058042]
我々は、テキストから画像への拡散モデルのための学習可能なプロンプトプレフィックスをトレーニングし、匿名化された顔のアイデンティティを生成するよう強制する。
実験では,非同一性固有の画像生成の品質を損なうことなく,特定の個人を匿名化するAPLの匿名化性能を実証した。
論文 参考訳(メタデータ) (2024-05-27T07:38:26Z) - Protect-Your-IP: Scalable Source-Tracing and Attribution against Personalized Generation [19.250673262185767]
画像著作権のソーストレーシングと属性の統一的なアプローチを提案する。
本稿では,プロアクティブ戦略とパッシブ戦略を融合した革新的な透かし属性法を提案する。
オンラインで公開されている様々なセレブの肖像画シリーズを用いて実験を行った。
論文 参考訳(メタデータ) (2024-05-26T15:14:54Z) - Adversarial Prompt Tuning for Vision-Language Models [86.5543597406173]
AdvPT(Adversarial Prompt Tuning)は、視覚言語モデル(VLM)における画像エンコーダの対向ロバスト性を高める技術である。
我々は,AdvPTが白箱攻撃や黒箱攻撃に対する抵抗性を向上し,既存の画像処理による防御技術と組み合わせることで相乗効果を示すことを示した。
論文 参考訳(メタデータ) (2023-11-19T07:47:43Z) - CopyScope: Model-level Copyright Infringement Quantification in the
Diffusion Workflow [6.6282087165087304]
著作権侵害の定量化は、AIが生成した画像著作権トレーサビリティへの第一かつ挑戦的なステップである。
モデルレベルからAI生成画像の侵害を定量化する新しいフレームワークであるCopyScopeを提案する。
論文 参考訳(メタデータ) (2023-10-13T13:08:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。