論文の概要: BOSC: A Backdoor-based Framework for Open Set Synthetic Image Attribution
- arxiv url: http://arxiv.org/abs/2405.11491v1
- Date: Sun, 19 May 2024 09:17:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 17:18:28.104316
- Title: BOSC: A Backdoor-based Framework for Open Set Synthetic Image Attribution
- Title(参考訳): BOSC: 合成画像属性をオープンセットするためのバックドアベースのフレームワーク
- Authors: Jun Wang, Benedetta Tondi, Mauro Barni,
- Abstract要約: 合成画像属性は、生成モデルによって生成された画像の起源をトレースする問題に対処する。
本稿では,バックドアアタックの概念に依存する,BOSCと呼ばれる合成画像のオープンセット属性の枠組みを提案する。
- 参考スコア(独自算出の注目度): 22.81354665006496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic image attribution addresses the problem of tracing back the origin of images produced by generative models. Extensive efforts have been made to explore unique representations of generative models and use them to attribute a synthetic image to the model that produced it. Most of the methods classify the models or the architectures among those in a closed set without considering the possibility that the system is fed with samples produced by unknown architectures. With the continuous progress of AI technology, new generative architectures continuously appear, thus driving the attention of researchers towards the development of tools capable of working in open-set scenarios. In this paper, we propose a framework for open set attribution of synthetic images, named BOSC (Backdoor-based Open Set Classification), that relies on the concept of backdoor attacks to design a classifier with rejection option. BOSC works by purposely injecting class-specific triggers inside a portion of the images in the training set to induce the network to establish a matching between class features and trigger features. The behavior of the trained model with respect to triggered samples is then exploited at test time to perform sample rejection using an ad-hoc score. Experiments show that the proposed method has good performance, always surpassing the state-of-the-art. Robustness against image processing is also very good. Although we designed our method for the task of synthetic image attribution, the proposed framework is a general one and can be used for other image forensic applications.
- Abstract(参考訳): 合成画像属性は、生成モデルによって生成された画像の起源をトレースする問題に対処する。
生成モデルのユニークな表現を探索し、それを生成したモデルに合成画像の属性付けに利用するために、広範囲な努力がなされている。
ほとんどの手法は、システムが未知のアーキテクチャによって生成されたサンプルで供給される可能性を考慮せずに、クローズドなセット内のモデルやアーキテクチャを分類する。
AI技術の継続的な進歩により、新しい生成アーキテクチャが継続的に出現し、研究者がオープンなシナリオで作業可能なツールの開発に注意を向けるようになる。
本稿では, バックドア攻撃の概念に頼って, 拒否オプション付き分類器を設計する, BOSC (Backdoor-based Open Set Classification) という合成画像のオープンセット属性のフレームワークを提案する。
BOSCは、トレーニングセット内の画像の一部にクラス固有のトリガを意図的に注入することで、ネットワークを誘導し、クラス機能とトリガー機能とのマッチングを確立する。
次に、トリガサンプルに対する訓練されたモデルの挙動をテスト時に利用し、アドホックスコアを用いてサンプル拒絶を行う。
実験の結果,提案手法は高い性能を示し,常に最先端の手法を超越していることがわかった。
画像処理に対するロバスト性も非常に優れている。
提案手法は,合成画像帰属処理のために設計されているが,提案手法は一般的なもので,他の画像法医学的応用にも利用できる。
関連論文リスト
- DeepFeatureX Net: Deep Features eXtractors based Network for discriminating synthetic from real images [6.75641797020186]
ディープラーニングアルゴリズムによって生成された合成画像であるDeepfakesは、Digital Forensicsの分野における最大の課題の1つだ。
ベースモデルと呼ばれる3つのブロックに基づく新しい手法を提案する。
そして、各ブロックから抽出された一般化特徴を処理して、入力画像の起源を判別する。
論文 参考訳(メタデータ) (2024-04-24T07:25:36Z) - Which Model Generated This Image? A Model-Agnostic Approach for Origin Attribution [23.974575820244944]
本研究では,生成した画像の起点属性を現実的に検討する。
ゴールは、ある画像がソースモデルによって生成されるかどうかを確認することである。
OCC-CLIPはCLIPをベースとしたワンクラス分類のためのフレームワークである。
論文 参考訳(メタデータ) (2024-04-03T12:54:16Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - Improving Few-shot Image Generation by Structural Discrimination and
Textural Modulation [10.389698647141296]
画像生成の目的は、このカテゴリからいくつかの画像が与えられた場合、あるカテゴリに対して可塑性で多様な画像を生成することである。
既存のアプローチでは、異なる画像をグローバルに補間するか、事前に定義された係数で局所表現を融合する。
本稿では,内部局所表現に外部意味信号を注入する新しいメカニズムを提案する。
論文 参考訳(メタデータ) (2023-08-30T16:10:21Z) - A Siamese-based Verification System for Open-set Architecture
Attribution of Synthetic Images [23.457275120490706]
本稿では,合成画像のオープンセット属性問題に対処するために,シームズネットワークを利用した検証フレームワークを提案する。
提案システムの主な強みは、クローズドシナリオとオープンセットシナリオの両方で運用できることである。
論文 参考訳(メタデータ) (2023-07-19T08:19:08Z) - Progressive Open Space Expansion for Open-Set Model Attribution [19.985618498466042]
我々は,OSMA(Open-Set Model Attribution)という課題に焦点をあて,既知のモデルに画像を同時に属性付けし,未知のモデルからそれらを識別する。
既存のオープンセット認識(OSR)タスクと比較して、OSMAは既知のモデルと未知のモデルとの区別が視覚的に知覚できないトレースに限られているため、より難しい。
本稿では, 閉集合と同一のセマンティクスを維持しつつ, 異なる認識不能なトレースを埋め込んだオープンセットサンプルをシミュレートした, プログレッシブオープンスペース拡張(POSE)ソリューションを提案する。
論文 参考訳(メタデータ) (2023-03-13T05:53:11Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - DiVAE: Photorealistic Images Synthesis with Denoising Diffusion Decoder [73.1010640692609]
本稿では,拡散デコーダ(DiVAE)を用いたVQ-VAEアーキテクチャモデルを提案する。
我々のモデルは最先端の成果を達成し、さらに多くのフォトリアリスティックな画像を生成する。
論文 参考訳(メタデータ) (2022-06-01T10:39:12Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。