論文の概要: CFL-Net: Image Forgery Localization Using Contrastive Learning
- arxiv url: http://arxiv.org/abs/2210.02182v1
- Date: Tue, 4 Oct 2022 15:31:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 14:08:55.713943
- Title: CFL-Net: Image Forgery Localization Using Contrastive Learning
- Title(参考訳): cfl-net: コントラスト学習を用いた画像偽造定位
- Authors: Fahim Faisal Niloy, Kishor Kumar Bhaumik, Simon S. Woo
- Abstract要約: コントラッシブ・ロスを用いて特徴空間へのマッピングを学習し、各画像に対して未修正領域と操作領域の特徴を適切に分離する。
本手法は, 偽造型に関する事前の知識や仮定を必要とせず, 操作領域のローカライズに長けている。
- 参考スコア(独自算出の注目度): 16.668334854459143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional forgery localizing methods usually rely on different forgery
footprints such as JPEG artifacts, edge inconsistency, camera noise, etc., with
cross-entropy loss to locate manipulated regions. However, these methods have
the disadvantage of over-fitting and focusing on only a few specific forgery
footprints. On the other hand, real-life manipulated images are generated via a
wide variety of forgery operations and thus, leave behind a wide variety of
forgery footprints. Therefore, we need a more general approach for image
forgery localization that can work well on a variety of forgery conditions. A
key assumption in underlying forged region localization is that there remains a
difference of feature distribution between untampered and manipulated regions
in each forged image sample, irrespective of the forgery type. In this paper,
we aim to leverage this difference of feature distribution to aid in image
forgery localization. Specifically, we use contrastive loss to learn mapping
into a feature space where the features between untampered and manipulated
regions are well-separated for each image. Also, our method has the advantage
of localizing manipulated region without requiring any prior knowledge or
assumption about the forgery type. We demonstrate that our work outperforms
several existing methods on three benchmark image manipulation datasets. Code
is available at https://github.com/niloy193/CFLNet.
- Abstract(参考訳): 従来の偽造ローカライズ手法は通常、jpegアーティファクト、エッジの不整合、カメラノイズなどの異なる偽造フットプリントに依存し、クロスエントロピー損失により操作された領域を特定する。
しかし、これらの手法は過剰フィッティングの欠点があり、特定の偽造の足跡にのみ焦点を合わせている。
一方で、実際の操作された画像は、様々な偽造操作によって生成されるため、様々な偽造の足跡を残している。
したがって,様々な偽造条件にうまく対応できる画像偽造ローカライズに対して,より汎用的なアプローチが必要である。
基礎となる鍛造領域のローカライゼーションにおける重要な前提は、偽造型に関係なく、各鍛造画像サンプルにおいて、改ざんされた領域と操作された領域の特徴分布の相違が残っていることである。
本稿では,この特徴分布の差を利用して画像のフォージェリローカライゼーションを支援することを目的とする。
具体的には、対比損失を用いて、各画像に対してアンスタンプ領域と操作領域間の特徴をうまく分離した特徴空間へのマッピングを学ぶ。
また,forgery型に関する事前知識や仮定を必要とせず,操作された領域を局所化する利点がある。
我々は,3つのベンチマーク画像操作データセットにおいて,既存の手法よりも優れていることを示す。
コードはhttps://github.com/niloy193/CFLNetで入手できる。
関連論文リスト
- TruFor: Leveraging all-round clues for trustworthy image forgery
detection and localization [17.270110456445806]
TruForは、さまざまなイメージ操作方法に適用可能な、法医学的なフレームワークである。
変換器をベースとした融合アーキテクチャにより,高レベルのトレースと低レベルのトレースの両方を抽出する。
当社の手法は,安価なフェイクとディープフェイク操作の両方を確実に検出し,ローカライズすることができる。
論文 参考訳(メタデータ) (2022-12-21T11:49:43Z) - PixSelect: Less but Reliable Pixels for Accurate and Efficient
Localization [0.0]
与えられた環境下での1枚のRGB画像からグローバル6DFカメラのポーズを推定する問題に対処する。
私たちの研究は、Cambridge Landmarksデータセットの最先端の手法を超えています。
論文 参考訳(メタデータ) (2022-06-08T09:46:03Z) - Location-Free Camouflage Generation Network [82.74353843283407]
カモフラージュ(Camouflage)は一般的な視覚現象で、前景の物体を背景のイメージに隠すことで、人間の目からは一時的に見えなくなる。
本稿では,前景と背景像の高次特徴を融合させ,一つの推論によって結果を生成する,ロケーションフリーなカモフラージュ生成ネットワーク(LCG-Net)を提案する。
実験により,本手法は単一外観領域における最先端技術と同程度に良好であり,完全に見えない可能性が低いが,多外観領域における最先端技術の品質をはるかに上回っていることが示された。
論文 参考訳(メタデータ) (2022-03-18T10:33:40Z) - Global and Local Alignment Networks for Unpaired Image-to-Image
Translation [170.08142745705575]
未ペア画像から画像への変換の目的は、対象領域のスタイルを反映した出力画像を作成することである。
既存の手法では内容変化に注意が払われていないため、ソース画像からの意味情報は翻訳中の劣化に悩まされる。
我々はGLA-Net(Global and Local Alignment Networks)という新しいアプローチを導入する。
本手法は既存の手法よりもシャープでリアルな画像を効果的に生成する。
論文 参考訳(メタデータ) (2021-11-19T18:01:54Z) - Sparse Spatial Transformers for Few-Shot Learning [6.271261279657655]
限られたデータから学ぶことは、データの不足によってトレーニングされたモデルの一般化が不十分になるため、難しい。
スパース空間トランスと呼ばれる新しいトランスを用いたニューラルネットワークアーキテクチャを提案する。
本手法はタスク関連機能を見つけ,タスク関連機能を抑制する。
論文 参考訳(メタデータ) (2021-09-27T10:36:32Z) - Contrastive Unpaired Translation using Focal Loss for Patch
Classification [0.0]
コントラストアンペア翻訳は画像から画像への翻訳の新しい手法である。
本研究では,PatchNCE損失におけるクロスエントロピー損失の代わりに焦点損失を用いることで,モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2021-09-25T20:22:33Z) - Cross-Descriptor Visual Localization and Mapping [81.16435356103133]
視覚のローカライゼーションとマッピングは、Mixed Realityとロボティクスシステムの大部分を支える重要な技術である。
特徴表現の連続的な更新を必要とする局所化とマッピングのための3つの新しいシナリオを提案する。
我々のデータ駆動型アプローチは特徴記述子型に非依存であり、計算要求が低く、記述アルゴリズムの数と線形にスケールする。
論文 参考訳(メタデータ) (2020-12-02T18:19:51Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - Multi-View Optimization of Local Feature Geometry [70.18863787469805]
本研究では,複数視点からの局所像の特徴の幾何を,未知のシーンやカメラの幾何を伴わずに精査する問題に対処する。
提案手法は,従来の特徴抽出とマッチングのパラダイムを自然に補完する。
本手法は,手作りと学習の両方の局所的特徴に対して,三角測量とカメラのローカライゼーション性能を常に向上することを示す。
論文 参考訳(メタデータ) (2020-03-18T17:22:11Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。