論文の概要: Has an AI model been trained on your images?
- arxiv url: http://arxiv.org/abs/2501.06399v1
- Date: Sat, 11 Jan 2025 01:12:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 17:20:21.275502
- Title: Has an AI model been trained on your images?
- Title(参考訳): AIモデルはあなたのイメージでトレーニングされましたか?
- Authors: Matyas Bohacek, Hany Farid,
- Abstract要約: モデルが特定の画像や画像に対してトレーニングされたかどうかを判断する手法について述べる。
この方法は計算的に効率的であり、モデルアーキテクチャや重みに関する明確な知識を前提としない。
我々は、既存のモデルの監査にこの手法が不可欠であると予測し、生成AIモデルのより公平な開発と展開を期待する。
- 参考スコア(独自算出の注目度): 13.106063755117399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: From a simple text prompt, generative-AI image models can create stunningly realistic and creative images bounded, it seems, by only our imagination. These models have achieved this remarkable feat thanks, in part, to the ingestion of billions of images collected from nearly every corner of the internet. Many creators have understandably expressed concern over how their intellectual property has been ingested without their permission or a mechanism to opt out of training. As a result, questions of fair use and copyright infringement have quickly emerged. We describe a method that allows us to determine if a model was trained on a specific image or set of images. This method is computationally efficient and assumes no explicit knowledge of the model architecture or weights (so-called black-box membership inference). We anticipate that this method will be crucial for auditing existing models and, looking ahead, ensuring the fairer development and deployment of generative AI models.
- Abstract(参考訳): シンプルなテキストプロンプトから、生成AI画像モデルは、想像力だけで、驚くほどリアルでクリエイティブな画像を作ることができるようだ。
これらのモデルは、インターネットのほぼすべての角から集めた何十億もの画像のおかげで、この驚くべき偉業を成し遂げた。
多くのクリエーターは、彼らの知的財産権が、彼らの許可なく、あるいはトレーニングをオプトアウトするメカニズムなしでどのように摂取されたか、という懸念を表明している。
その結果、公正使用と著作権侵害に関する問題が急速に浮上した。
モデルが特定の画像や画像に対してトレーニングされたかどうかを判断する手法について述べる。
この方法は計算的に効率的であり、モデルアーキテクチャやウェイト(いわゆるブラックボックスメンバーシップ推論)の明確な知識を前提としない。
我々は、既存のモデルの監査にこの手法が不可欠であると予測し、生成AIモデルのより公平な開発と展開を期待する。
関連論文リスト
- VCE: Safe Autoregressive Image Generation via Visual Contrast Exploitation [57.36681904639463]
自己回帰的テキスト・画像モデルを保護する方法はまだ未検討のままである。
コンテンツセマンティクスから安全でない概念を正確に分離する新しいフレームワークであるVisual Contrast Exploitation (VCE)を提案する。
提案手法は,安全でない概念を消去し,無関係な概念の整合性を保ちながら,最先端の成果を効果的に確保できることを実証する。
論文 参考訳(メタデータ) (2025-09-21T09:00:27Z) - Artificial Intelligence and Misinformation in Art: Can Vision Language Models Judge the Hand or the Machine Behind the Canvas? [40.65612212208553]
画像の生成と解析が可能な強力な人工知能モデルは、属性を描くための新たな課題を生み出します。
一方、AIモデルは画家のスタイルを模倣するイメージを作成することができる。
一方、AIモデルは実際の絵画のアーティストを正しく識別できない可能性がある。
論文 参考訳(メタデータ) (2025-08-02T15:27:31Z) - Where's the liability in the Generative Era? Recovery-based Black-Box Detection of AI-Generated Content [53.93606081932928]
APIアクセスのみを必要とする新しいブラックボックス検出フレームワークを導入する。
画像がモデル自身によって生成された可能性を測定する。
マスクされた画像入力をサポートしないブラックボックスモデルに対して、ターゲットモデル分布に適合するように訓練された費用効率の良い代理モデルを導入する。
論文 参考訳(メタデータ) (2025-05-02T05:11:35Z) - TWIG: Two-Step Image Generation using Segmentation Masks in Diffusion Models [42.845519045205144]
著作権侵害は、画像の自由な共有にとって大きな障害である。
一部のAIモデルは、著作権のある画像を直接コピーすることが注目されている。
条件拡散モデルに着想を得た2段階画像生成モデルを提案する。
論文 参考訳(メタデータ) (2025-04-21T07:53:58Z) - RealRAG: Retrieval-augmented Realistic Image Generation via Self-reflective Contrastive Learning [54.07026389388881]
第1回リアルタイムオブジェクトベース検索拡張生成フレームワーク(RealRAG)を提案する。
RealRAGは、生成モデルの知識ギャップを克服するために、現実世界の画像の学習と検索によって、細粒で目に見えない新しいオブジェクトを生成する。
本フレームワークは, 生成モデルに対するきめ細かな視覚的知識を統合し, 歪み問題に対処し, オブジェクト生成における現実性を改善する。
論文 参考訳(メタデータ) (2025-02-02T16:41:54Z) - How Many Van Goghs Does It Take to Van Gogh? Finding the Imitation Threshold [50.33428591760124]
学習データセットにおける概念の頻度とモデルを模倣する能力の関係について検討する。
我々は,複数のモデルをスクラッチからトレーニングする余剰コストを発生させることなく,模倣閾値を推定する効率的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:28:14Z) - Inpaint Biases: A Pathway to Accurate and Unbiased Image Generation [0.0]
Inpaint Biasesフレームワークは,画像生成の精度を高めるために,ユーザ定義マスクとインペイント技術を利用する。
我々は,このフレームワークが生成した画像のユーザ意図に対する忠実度を大幅に改善し,モデルの作成能力を向上することを示す。
論文 参考訳(メタデータ) (2024-05-29T05:04:07Z) - Detecting AI-Generated Images via CLIP [0.0]
我々は,大規模なインターネット規模のデータセットで事前学習したコントラスト言語-画像事前学習(CLIP)アーキテクチャを用いて,画像がAI生成されているかどうかを判定する能力について検討する。
いくつかの生成モデルからCLIPを実画像とAIGIに微調整し、CLIPが画像がAI生成されているかどうかを判断し、もしそうであれば、その生成にどの生成方法が使われたかを決定する。
本手法は,AIGI検出ツールへのアクセスを著しく増加させ,社会に対するAIGIの悪影響を低減させる。
論文 参考訳(メタデータ) (2024-04-12T19:29:10Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - CopyScope: Model-level Copyright Infringement Quantification in the
Diffusion Workflow [6.6282087165087304]
著作権侵害の定量化は、AIが生成した画像著作権トレーサビリティへの第一かつ挑戦的なステップである。
モデルレベルからAI生成画像の侵害を定量化する新しいフレームワークであるCopyScopeを提案する。
論文 参考訳(メタデータ) (2023-10-13T13:08:09Z) - Ablating Concepts in Text-to-Image Diffusion Models [57.9371041022838]
大規模テキスト・画像拡散モデルでは、強力な構成能力を持つ高忠実度画像を生成することができる。
これらのモデルは典型的には膨大な量のインターネットデータに基づいて訓練されており、しばしば著作権のある資料、ライセンスされた画像、個人写真を含んでいる。
本稿では,事前訓練されたモデルにおいて,目標概念の生成を防止し,効率的に概念を宣言する手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T17:59:42Z) - Implementing and Experimenting with Diffusion Models for Text-to-Image
Generation [0.0]
DALL-E 2 と Imagen という2つのモデルでは、画像の単純なテキスト記述から高画質の画像を生成できることが示されている。
テキスト・ツー・イメージのモデルは、トレーニングに必要な膨大な計算リソースと、インターネットから収集された巨大なデータセットを扱う必要がある。
この論文は、これらのモデルが使用するさまざまなアプローチとテクニックをレビューし、それから、テキスト・ツー・イメージ・モデルの独自の実装を提案することで貢献する。
論文 参考訳(メタデータ) (2022-09-22T12:03:33Z) - Weakly Supervised High-Fidelity Clothing Model Generation [67.32235668920192]
本稿では,このシナリオに対応するために,DGP (Deep Generative Projection) と呼ばれる安価でスケーラブルな弱教師付き手法を提案する。
衣服と身体の粗いアライメントをStyleGAN空間に投影することで、フォトリアリスティックな着用結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-14T07:15:15Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。