論文の概要: On the Exploitation of DCT-Traces in the Generative-AI Domain
- arxiv url: http://arxiv.org/abs/2402.02209v1
- Date: Sat, 3 Feb 2024 16:45:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 21:27:42.332862
- Title: On the Exploitation of DCT-Traces in the Generative-AI Domain
- Title(参考訳): 生成AIドメインにおけるDCTトレースの爆発について
- Authors: Orazio Pontorno (1), Luca Guarnera (1), Sebastiano Battiato (1) ((1)
University of Catania)
- Abstract要約: 生成モデルは、既存のディープフェイク検出器の一般化限界を改善するために利用される合成データにユニークな痕跡を残している。
本稿では、離散コサイン変換(DCT)のβ-AC係数を詳細に検討し、周波数領域のディープフェイク画像を解析した。
この結果から, 生成モデルが残した痕跡の分析を改善するために, β-AC係数の特定の組み合わせを用いることの有意な可能性を明らかにした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since their appearance, Deepfakes represent one of the toughest challenges in
the world of Cybersecurity and Digital Forensics. In recent years, researchers
have discovered that generative models leave unique traces in synthetic data
that, if analyzed and identified in detail, can be exploited to improve the
generalization limitations of existing deepfake detectors. To capture this
evidence, in this paper we analyzed deepfake images in the frequency domain,
examining in detail the beta-AC coefficients of the Discrete Cosine Transform
(DCT). Recognizing that not all coefficients contribute equally to image
recognition, we hypothesize the existence of a unique "discriminative
fingerprint" for each type of image, embedded in specific combinations of
coefficients. To identify them, Machine Learning classifiers were trained on
various combinations of coefficients. The integration of the Explainable AI
(XAI) LIME algorithm combined with a neural classifier to explore alternative
combinations of coefficients provides a deeper insight into the discriminative
features of synthetic images. Experimental results reveal the significant
potential of using a specific combination of beta-AC coefficients in order to
improve the analysis of traces left by generative models.
- Abstract(参考訳): その登場以来、Deepfakesはサイバーセキュリティとデジタル犯罪の世界でもっとも困難な課題の1つだ。
近年の研究では、生成モデルが合成データにユニークな痕跡を残していることが発見されており、分析され詳細が特定できれば、既存のディープフェイク検出器の一般化限界を改善するために利用することができる。
そこで本研究では, 離散コサイン変換(DCT)のβ-AC係数を詳細に検討し, 周波数領域のディープフェイク画像を解析した。
すべての係数が画像認識に等しく寄与するわけではないことを認識し、係数の特定の組み合わせに埋め込まれた画像の種類ごとにユニークな「識別指紋」の存在を仮定する。
それらを特定するために、機械学習分類器は様々な係数の組み合わせで訓練された。
説明可能なai(xai)ライムアルゴリズムと神経分類器を組み合わせることで、係数の代替組み合わせを探索することで、合成画像の識別的特徴に関する深い洞察が得られる。
実験結果から, 生成モデルが残した痕跡の分析を改善するために, β-AC係数の特定の組み合わせを用いることの有意な可能性を明らかにした。
関連論文リスト
- Can Your Generative Model Detect Out-of-Distribution Covariate Shift? [2.0144831048903566]
条件付き正規化フロー(cNFs)を用いたOODセンサデータ検出のための新しい手法を提案する。
CIFAR10 対 CIFAR10-C と ImageNet200 対 ImageNet200-C では,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-04T19:27:56Z) - Comprehensive Botnet Detection by Mitigating Adversarial Attacks, Navigating the Subtleties of Perturbation Distances and Fortifying Predictions with Conformal Layers [1.6001193161043425]
ボットネット(Botnet)は、悪意あるアクターによって制御されるコンピュータネットワークで、重要なサイバーセキュリティ上の課題を提示する。
本研究は、機械学習ベースのボットネット検出システムを弱体化させることを目的として、攻撃者が引き起こす高度な敵操作に対処する。
ISCXデータセットとISOTデータセットに基づいてトレーニングされた機械学習とディープラーニングアルゴリズムを活用するフローベース検出アプローチを導入する。
論文 参考訳(メタデータ) (2024-09-01T08:53:21Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - Self-supervised GAN Detector [10.963740942220168]
生成モデルは 不正や 破壊 偽ニュースなど 悪意のある目的で悪用される
トレーニング設定外の未確認画像を識別する新しいフレームワークを提案する。
提案手法は,GAN画像の高品質な人工指紋を再構成する人工指紋生成装置から構成する。
論文 参考訳(メタデータ) (2021-11-12T06:19:04Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Brain Image Synthesis with Unsupervised Multivariate Canonical
CSC$\ell_4$Net [122.8907826672382]
我々は,新しいCSC$ell_4$Netを用いて,イントレとイントラモーダルの両方にまたがる専用特徴を学習することを提案する。
論文 参考訳(メタデータ) (2021-03-22T05:19:40Z) - Fighting deepfakes by detecting GAN DCT anomalies [0.0]
最先端アルゴリズムはディープニューラルネットワークを使って偽のコンテンツを検出する。
ディープフェイク画像の高精度判別が可能な新しい高速検出法を提案する。
この手法は革新的であり、最先端技術を超え、説明可能性の観点から多くの洞察を与えている。
論文 参考訳(メタデータ) (2021-01-24T19:45:11Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。