論文の概要: Shallow- and Deep-fake Image Manipulation Localization Using Vision Mamba and Guided Graph Neural Network
- arxiv url: http://arxiv.org/abs/2601.02566v1
- Date: Mon, 05 Jan 2026 21:38:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.73087
- Title: Shallow- and Deep-fake Image Manipulation Localization Using Vision Mamba and Guided Graph Neural Network
- Title(参考訳): 視覚マンバとガイド付きグラフニューラルネットを用いた浅深度・深度画像マニピュレーション位置決め
- Authors: Junbin Zhang, Hamid Reza Tohidypour, Yixiao Wang, Panos Nasiopoulos,
- Abstract要約: 本稿では,浅層画像と深層画像の両方において,深層学習ネットワークによる操作のローカライズの実現可能性について検討する。
本稿では,操作された画素と認証されたピクセルの区別を増幅する新しいガイドグラフニューラルネットワーク(G-GNN)モジュールを提案する。
- 参考スコア(独自算出の注目度): 8.518945405991362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image manipulation localization is a critical research task, given that forged images may have a significant societal impact of various aspects. Such image manipulations can be produced using traditional image editing tools (known as "shallowfakes") or advanced artificial intelligence techniques ("deepfakes"). While numerous studies have focused on image manipulation localization on either shallowfake images or deepfake videos, few approaches address both cases. In this paper, we explore the feasibility of using a deep learning network to localize manipulations in both shallow- and deep-fake images, and proposed a solution for such purpose. To precisely differentiate between authentic and manipulated pixels, we leverage the Vision Mamba network to extract feature maps that clearly describe the boundaries between tampered and untouched regions. To further enhance this separation, we propose a novel Guided Graph Neural Network (G-GNN) module that amplifies the distinction between manipulated and authentic pixels. Our evaluation results show that our proposed method achieved higher inference accuracy compared to other state-of-the-art methods.
- Abstract(参考訳): 画像操作のローカライゼーションは、鍛造された画像が様々な側面の社会的影響が大きいことを考慮し、重要な研究課題である。
このような画像操作は、従来の画像編集ツール(「シャローフェイク」として知られる)や高度な人工知能技術(「ディープフェイク」と呼ばれる)を使って作成することができる。
多くの研究では、浅いフェイク画像またはディープフェイクビデオのイメージ操作のローカライズに重点を置いているが、両方のケースに対処するアプローチはほとんどない。
本稿では,浅層画像と深層画像の両方で操作をローカライズする深層学習ネットワークの実現可能性について検討し,その解決策を提案する。
実際の画素と操作画素を正確に区別するために、視覚マンバネットワークを用いて、改ざんされた領域と非タッチされた領域の境界を明確に記述した特徴マップを抽出する。
この分離をさらに強化するために,操作された画素と認証画素の区別を増幅する新しいガイド付きグラフニューラルネットワーク(G-GNN)モジュールを提案する。
評価の結果,提案手法は,他の最先端手法と比較して高い推論精度を達成できた。
関連論文リスト
- Learning to Manipulate Artistic Images [27.803374400458402]
任意のスタイル画像操作ネットワーク(SIM-Net)を提案する。
計算効率と高分解能をある程度のバランスをとる。
定性的かつ定量的な実験は、我々の手法が最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-25T06:34:49Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Detect and Locate: A Face Anti-Manipulation Approach with Semantic and
Noise-level Supervision [67.73180660609844]
本稿では,画像中の偽造顔を効率的に検出する,概念的にシンプルだが効果的な方法を提案する。
提案手法は,画像に関する意味の高い意味情報を提供するセグメンテーションマップに依存する。
提案モデルでは,最先端検出精度と顕著なローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2021-07-13T02:59:31Z) - Fighting Deepfake by Exposing the Convolutional Traces on Images [0.0]
FACEAPPのようなモバイルアプリは、最も高度なGAN(Generative Adversarial Networks)を使用して、人間の顔写真に極端な変換を生成する。
この種のメディアオブジェクトはDeepfakeという名前を取って、マルチメディアの法医学分野における新たな課題であるDeepfake検出課題を提起した。
本稿では,画像からディープフェイク指紋を抽出する手法を提案する。
論文 参考訳(メタデータ) (2020-08-07T08:49:23Z) - Learning Transformation-Aware Embeddings for Image Forensics [15.484408315588569]
Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T22:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。