論文の概要: PALADIN : Robust Neural Fingerprinting for Text-to-Image Diffusion Models
- arxiv url: http://arxiv.org/abs/2506.03170v1
- Date: Wed, 28 May 2025 18:52:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:13.899908
- Title: PALADIN : Robust Neural Fingerprinting for Text-to-Image Diffusion Models
- Title(参考訳): PALADIN : テキスト・画像拡散モデルのためのロバスト・ニューラルフィンガープリント
- Authors: Murthy L, Subarna Tripathi,
- Abstract要約: ニューラルフィンガープリントによる生成モデルへの貢献が、一般的なテクニックとして現れつつある。
既存の手法はどれも100%の属性精度を達成していない。
本稿では,テキスト・画像拡散モデルにニューラルネットワークを組み込むための高精度な手法を提案する。
- 参考スコア(独自算出の注目度): 9.21019970479227
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The risk of misusing text-to-image generative models for malicious uses, especially due to the open-source development of such models, has become a serious concern. As a risk mitigation strategy, attributing generative models with neural fingerprinting is emerging as a popular technique. There has been a plethora of recent work that aim for addressing neural fingerprinting. A trade-off between the attribution accuracy and generation quality of such models has been studied extensively. None of the existing methods yet achieved $100\%$ attribution accuracy. However, any model with less than \emph{perfect} accuracy is practically non-deployable. In this work, we propose an accurate method to incorporate neural fingerprinting for text-to-image diffusion models leveraging the concepts of cyclic error correcting codes from the literature of coding theory.
- Abstract(参考訳): 悪意のある使用のためにテキストから画像への生成モデルを誤用するリスク、特にそのようなモデルのオープンソース開発が深刻な懸念となっている。
リスク軽減戦略として,ニューラルフィンガープリントによる生成モデルへの帰属が普及しつつある。
ニューラルフィンガープリントに対処するための最近の研究が数多く行われている。
このようなモデルの帰属精度と生成品質のトレードオフが広く研究されている。
既存の手法はいずれも100\%のアトリビューション精度を達成していない。
しかし、emph{perfect} 精度未満のモデルは、事実上デプロイ不可能である。
本研究では,符号化理論の文献から循環的誤り訂正符号の概念を生かしたテキスト・画像拡散モデルに対して,ニューラルフィンガープリントを正確に組み込む手法を提案する。
関連論文リスト
- Model Integrity when Unlearning with T2I Diffusion Models [11.321968363411145]
「忘れ分布からのサンプルを特徴とする特定種類の画像の生成を減らすために、近似機械学習アルゴリズムを提案する。」
次に、既存のベースラインと比較してモデルの整合性を保つ上で優れた効果を示す未学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-04T13:15:28Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - WOUAF: Weight Modulation for User Attribution and Fingerprinting in Text-to-Image Diffusion Models [32.29120988096214]
本稿では,生成画像に責任を負うモデルフィンガープリントの新たなアプローチを提案する。
提案手法は,ユーザ固有のデジタル指紋に基づいて生成モデルを修正し,ユーザへ遡ることができるコンテンツにユニークな識別子を印字する。
論文 参考訳(メタデータ) (2023-06-07T19:44:14Z) - Attributing Image Generative Models using Latent Fingerprints [33.037718660732544]
生成モデルにより、自然から取られたものと区別できないコンテンツの作成が可能になった。
リスク軽減戦略の1つは、指紋認証による生成モデルの属性付けである。
本稿では,指紋としての潜在意味論の活用について検討する。
論文 参考訳(メタデータ) (2023-04-17T00:13:10Z) - Deep Image Fingerprint: Towards Low Budget Synthetic Image Detection and Model Lineage Analysis [8.777277201807351]
本研究では,実際の画像と区別できない画像の新たな検出方法を提案する。
本手法は、既知の生成モデルから画像を検出し、微調整された生成モデル間の関係を確立することができる。
本手法は,Stable Diffusion とMidversa が生成した画像に対して,最先端の事前学習検出手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-03-19T20:31:38Z) - NCTV: Neural Clamping Toolkit and Visualization for Neural Network
Calibration [66.22668336495175]
ニューラルネットワークのキャリブレーションに対する考慮の欠如は、人間から信頼を得ることはないだろう。
我々はNeural Clamping Toolkitを紹介した。これは開発者が最先端のモデルに依存しないキャリブレーションモデルを採用するのを支援するために設計された最初のオープンソースフレームワークである。
論文 参考訳(メタデータ) (2022-11-29T15:03:05Z) - Learning Robust Representations Of Generative Models Using Set-Based
Artificial Fingerprints [14.191129493685212]
既存の手法はサンプル分布を通してモデル間の距離を近似する。
我々は、生成モデルの表現として、ユニークな痕跡(いわゆる「人工指紋」)を考える。
セットエンコーディングとコントラスト学習に基づく新しい学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-04T23:20:07Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。