論文の概要: SolidMark: Evaluating Image Memorization in Generative Models
- arxiv url: http://arxiv.org/abs/2503.00592v1
- Date: Sat, 01 Mar 2025 19:14:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:17:00.984071
- Title: SolidMark: Evaluating Image Memorization in Generative Models
- Title(参考訳): SolidMark: 生成モデルにおける画像記憶の評価
- Authors: Nicky Kriplani, Minh Pham, Gowthami Somepalli, Chinmay Hegde, Niv Cohen,
- Abstract要約: メモリ化の評価に用いられるメトリクスとその緩和技術が,データセット依存バイアスに悩まされていることを示す。
以下に示すのは、$rm stylefont-variant: small-capsSolidMark$, a novel evaluation method that provide a-image memorization score。
また、$rm stylefont-variant: small-capsSolidMark$は、きめ細かいピクセルレベルの記憶を評価できることを示す。
- 参考スコア(独自算出の注目度): 29.686839712637433
- License:
- Abstract: Recent works have shown that diffusion models are able to memorize training images and emit them at generation time. However, the metrics used to evaluate memorization and its mitigation techniques suffer from dataset-dependent biases and struggle to detect whether a given specific image has been memorized or not. This paper begins with a comprehensive exploration of issues surrounding memorization metrics in diffusion models. Then, to mitigate these issues, we introduce $\rm \style{font-variant: small-caps}{SolidMark}$, a novel evaluation method that provides a per-image memorization score. We then re-evaluate existing memorization mitigation techniques. We also show that $\rm \style{font-variant: small-caps}{SolidMark}$ is capable of evaluating fine-grained pixel-level memorization. Finally, we release a variety of models based on $\rm \style{font-variant: small-caps}{SolidMark}$ to facilitate further research for understanding memorization phenomena in generative models. All of our code is available at https://github.com/NickyDCFP/SolidMark.
- Abstract(参考訳): 近年の研究では、拡散モデルがトレーニング画像を記憶し、生成時に出力できることが示されている。
しかし、暗記とその緩和技術を評価するために使われるメトリクスは、データセット依存のバイアスと、特定の特定の画像が暗記されているかどうかを検出するのに苦労している。
本稿では,拡散モデルにおける記憶量に関する問題を包括的に調査することから始める。
次に、これらの問題を緩和するために、$\rm \displaystyle{font-variant: small-caps}{SolidMark}$を紹介します。
そして、既存の記憶の緩和技術を再評価する。
また、$\rm \displaystyle{font-variant: small-caps}{SolidMark}$ は、きめ細かいピクセルレベルの記憶を評価できることを示す。
最後に、生成モデルにおける記憶現象を理解するためのさらなる研究を促進するために、$\rm \displaystyle{font-variant: small-caps}{SolidMark}$に基づく様々なモデルをリリースする。
コードはすべてhttps://github.com/NickyDCFP/SolidMarkで公開されています。
関連論文リスト
- A Geometric Framework for Understanding Memorization in Generative Models [11.263296715798374]
近年の研究では、深層生成モデルにより、デプロイ時にトレーニングデータポイントを記憶・再生することが可能であることが示されている。
これらの知見は、特に暗記によって引き起こされる法的およびプライバシー上のリスクを考慮して、生成モデルのユーザビリティを疑問視する。
本稿では, 多様体の暗記仮説(MMH)を, 暗記を推論する明快な言語として活用する幾何学的枠組みを提案する。
論文 参考訳(メタデータ) (2024-10-31T18:09:01Z) - Detecting, Explaining, and Mitigating Memorization in Diffusion Models [49.438362005962375]
そこで本研究では,テキスト条件予測の大きさを検査することで,暗黙のプロンプトを検出する方法を提案する。
提案手法はサンプリングアルゴリズムを中断することなくシームレスに統合し,第1世代でも高い精度を実現する。
検出戦略に基づいて,個々の単語やトークンの記憶への寄与を示す説明可能なアプローチを提示する。
論文 参考訳(メタデータ) (2024-07-31T16:13:29Z) - Embedding Space Selection for Detecting Memorization and Fingerprinting in Generative Models [45.83830252441126]
GAN(Generative Adversarial Networks)と拡散モデル(Diffusion Models)は画期的な技術となり、芸術創造から医療まで様々な分野のイノベーションを推進してきた。
それらの可能性にもかかわらず、これらのモデルはデータ記憶の重大な課題に直面し、プライバシと生成されたコンテンツの完全性にリスクをもたらす。
エンコーダ層埋め込みから算出した暗記スコアについて検討し, 埋め込み空間内の試料間距離を計測する。
論文 参考訳(メタデータ) (2024-07-30T19:52:49Z) - MemBench: Memorized Image Trigger Prompt Dataset for Diffusion Models [28.64962324938148]
本稿では,画像記憶の緩和手法を評価するための最初のベンチマークであるMemBenchを紹介する。
本稿では,トリガープロンプトと一般プロンプトの両方で評価された指標について述べる。
論文 参考訳(メタデータ) (2024-07-24T08:46:58Z) - Unveiling and Mitigating Memorization in Text-to-image Diffusion Models through Cross Attention [62.671435607043875]
研究は、テキストから画像への拡散モデルがトレーニングデータから画像を複製し、著作権侵害やプライバシーのリスクに対する大きな懸念を引き起こすことを示唆している。
暗記中、クロスアテンションは特定のトークンの埋め込みに不均等に集中する傾向にあることが明らかとなった。
拡散モデルにおける記憶の検出と緩和のための革新的なアプローチを導入する。
論文 参考訳(メタデータ) (2024-03-17T01:27:00Z) - Déjà Vu Memorization in Vision-Language Models [39.51189095703773]
視覚言語モデル(VLM)における記憶量測定のための新しい手法を提案する。
モデルでは、相関や画像キャプションから推測できる範囲を超えて、トレーニング画像中の個々のオブジェクトに関する情報が実際に保持されていることを示す。
サンプルおよび集団レベルでのd'eja vuメモリ化を評価し,最大5000万枚の画像キャプチャーペアで訓練したOpenCLIPにとって重要であることを示す。
論文 参考訳(メタデータ) (2024-02-03T09:55:35Z) - What do larger image classifiers memorise? [64.01325988398838]
トレーニング例は, モデルサイズにまたがって, 予想外の多彩な記憶軌跡を示す。
有効で一般的なモデル圧縮手法である知識蒸留は,記憶を阻害する傾向があり,一般化も改善する。
論文 参考訳(メタデータ) (2023-10-09T01:52:07Z) - Can Neural Network Memorization Be Localized? [102.68044087952913]
記憶化は、モデルの様々な層において、小さなニューロンの集合に限られる現象であることを示す。
我々は、サンプルの記憶をai決定されたニューロンに直接記憶できる新しい形式のドロップアウト -- $textitexample-tied dropout$を提案する。
論文 参考訳(メタデータ) (2023-07-18T18:36:29Z) - Preventing Verbatim Memorization in Language Models Gives a False Sense
of Privacy [91.98116450958331]
我々は、動詞の暗記の定義があまりに制限的であり、より微妙な暗記の形式を捉えることができないと論じる。
具体的には、全ての動詞の暗記を完全に防止する効率的な防御を設計し、実装する。
我々は、潜在的な代替定義について議論し、なぜ記憶の定義がニューラルネットワークモデルにとって難しいが決定的なオープンな問題であるのかを論じる。
論文 参考訳(メタデータ) (2022-10-31T17:57:55Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。