論文の概要: Modelship Attribution: Tracing Multi-Stage Manipulations Across Generative Models
- arxiv url: http://arxiv.org/abs/2506.02405v1
- Date: Tue, 03 Jun 2025 03:45:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.214628
- Title: Modelship Attribution: Tracing Multi-Stage Manipulations Across Generative Models
- Title(参考訳): モデル帰属:生成モデル全体にわたる多段階操作の追跡
- Authors: Zhiya Tan, Xin Zhang, Joey Tianyi Zhou,
- Abstract要約: The Modelship Attribution”は、編集の順序を再現し、関連する生成モデルを特定することによって、編集された画像の進化を辿ることを目的としている。
複雑な多段階操作における様々なモデルの寄与を効果的に認識し、属性付けするためのフレームワークであるMAT(Modelship Attribution Transformer)を導入する。
- 参考スコア(独自算出の注目度): 37.368187232084324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As generative techniques become increasingly accessible, authentic visuals are frequently subjected to iterative alterations by various individuals employing a variety of tools. Currently, to avoid misinformation and ensure accountability, a lot of research on detection and attribution is emerging. Although these methods demonstrate promise in single-stage manipulation scenarios, they fall short when addressing complex real-world iterative manipulation. In this paper, we are the first, to the best of our knowledge, to systematically model this real-world challenge and introduce a novel method to solve it. We define a task called "Modelship Attribution", which aims to trace the evolution of manipulated images by identifying the generative models involved and reconstructing the sequence of edits they performed. To realistically simulate this scenario, we utilize three generative models, StyleMapGAN, DiffSwap, and FacePartsSwap, that sequentially modify distinct regions of the same image. This process leads to the creation of the first modelship dataset, comprising 83,700 images (16,740 images*5). Given that later edits often overwrite the fingerprints of earlier models, the focus shifts from extracting blended fingerprints to characterizing each model's distinctive editing patterns. To tackle this challenge, we introduce the modelship attribution transformer (MAT), a purpose-built framework designed to effectively recognize and attribute the contributions of various models within complex, multi-stage manipulation workflows. Through extensive experiments and comparative analysis with other related methods, our results, including comprehensive ablation studies, demonstrate that the proposed approach is a highly effective solution for modelship attribution.
- Abstract(参考訳): 生成技術がますますアクセスしやすくなるにつれて、様々なツールを駆使した様々な個人によって、真の視覚が反復的に変化することも多い。
現在、誤報を避け、説明責任を確保するために、検出と帰属に関する多くの研究が生まれている。
これらの手法は単一段階の操作シナリオにおいて有望であるが、複雑な実世界の反復操作に対処するには不十分である。
本稿では,この現実世界の課題を体系的にモデル化し,その解決のための新しい手法を提案する。
生成モデルを特定し,編集の順序を再構築することにより,操作された画像の進化を辿ることを目的としたモデル帰属(Modelship Attribution)というタスクを定義する。
このシナリオを現実的にシミュレートするには、StyleMapGAN、DiffSwap、FacePartsSwapの3つの生成モデルを使用し、同じ画像の異なる領域を逐次修正する。
このプロセスは83,700個の画像(16,740個の画像*5)からなる最初のモデルシップデータセットの作成につながる。
後の編集が初期のモデルの指紋を上書きすることも多いことを考えると、焦点はブレンドされた指紋を抽出することから、各モデルの独特の編集パターンを特徴づけることへとシフトする。
この課題に対処するために、複雑で多段階の操作ワークフローにおいて、様々なモデルの寄与を効果的に認識し、属性付けする目的で設計されたフレームワーク、MAT(Modelship Attribution Transformer)を導入する。
広範囲な実験と他の関連手法との比較分析により,提案手法がモデル帰属の高効率な解法であることを実証した。
関連論文リスト
- What Changed? Detecting and Evaluating Instruction-Guided Image Edits with Multimodal Large Language Models [88.398085358514]
DICEは、原画像と編集画像の局所的な差異を検出するために設計されたモデルである。
自己監督、塗布ネットワークからの蒸留、全監督を利用する戦略を用いて訓練されている。
DICEは一貫性のある編集を効果的に識別し、異なる編集モデルによって生成された画像を人間の判断と強く相関して効果的に評価する。
論文 参考訳(メタデータ) (2025-05-26T18:00:10Z) - EditAR: Unified Conditional Generation with Autoregressive Models [58.093860528672735]
本稿では,条件付き画像生成タスクのための単一の統合自己回帰フレームワークであるEditARを提案する。
このモデルは、画像と命令の両方を入力として取り、バニラの次のパラダイムで編集された画像トークンを予測する。
確立されたベンチマークにおいて,様々なタスクにまたがる実効性を評価し,様々なタスク固有の手法に対する競争性能を示す。
論文 参考訳(メタデータ) (2025-01-08T18:59:35Z) - A Simple Approach to Unifying Diffusion-based Conditional Generation [63.389616350290595]
多様な条件生成タスクを処理するための、シンプルで統一されたフレームワークを導入します。
提案手法は,異なる推論時間サンプリング方式による多目的化を実現する。
我々のモデルは、非親密なアライメントや粗い条件付けのような追加機能をサポートしています。
論文 参考訳(メタデータ) (2024-10-15T09:41:43Z) - Model Attribution in LLM-Generated Disinformation: A Domain Generalization Approach with Supervised Contrastive Learning [26.02988481241285]
現代の大きな言語モデル(LLM)は、人間のような品質で偽情報を生成する。
偽情報を生成する方法の多様性は、正確なソース属性を複雑にする。
本稿では,モデル帰属の概念を領域一般化問題として紹介する。
論文 参考訳(メタデータ) (2024-07-31T00:56:09Z) - Model Synthesis for Zero-Shot Model Attribution [26.835046772924258]
生成モデルは、芸術、デザイン、人間とコンピュータの相互作用などの様々な分野を形作っている。
実世界の生成モデルの指紋パターンを模倣した多数の合成モデルを生成するモデル合成手法を提案する。
実験により, この指紋抽出装置は, 合成モデルのみを訓練し, 様々な実世界の生成モデルに対して, 印象的なゼロショットの一般化を実現することができた。
論文 参考訳(メタデータ) (2023-07-29T13:00:42Z) - IRGen: Generative Modeling for Image Retrieval [82.62022344988993]
本稿では,画像検索を生成モデルの一種として再フレーミングする新しい手法を提案する。
我々は、イメージを意味単位の簡潔なシーケンスに変換するという技術的課題に対処するため、IRGenと呼ばれるモデルを開発した。
本モデルは,広範に使用されている3つの画像検索ベンチマークと200万件のデータセットに対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-17T17:07:36Z) - Learning to Model Editing Processes [98.11448946134894]
本稿では、反復的にシーケンスを生成するプロセス全体をモデル化し、編集プロセスのモデリングを提案する。
我々は、多段階編集の可能性を記述するための概念的枠組みを構築し、これらの多段階編集に基づいてシーケンスの生成モデルを学ぶことができるニューラルネットワークを記述する。
論文 参考訳(メタデータ) (2022-05-24T21:32:52Z) - End-to-End Visual Editing with a Generatively Pre-Trained Artist [78.5922562526874]
対象画像編集の問題として、ソース画像内の領域と、所望の変更を指定したドライバ画像とをブレンドすることを考える。
対象領域のオフザシェルフ画像を拡大することにより編集をシミュレートする自己教師型アプローチを提案する。
我々は、モデルアーキテクチャに他の変更を加えることなく、拡張プロセスの直感的な制御によって異なるブレンディング効果が学習できることを示します。
論文 参考訳(メタデータ) (2022-05-03T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。