論文の概要: Rethinking Image Forgery Detection via Contrastive Learning and
Unsupervised Clustering
- arxiv url: http://arxiv.org/abs/2308.09307v1
- Date: Fri, 18 Aug 2023 05:05:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 14:37:50.322748
- Title: Rethinking Image Forgery Detection via Contrastive Learning and
Unsupervised Clustering
- Title(参考訳): コントラスト学習と教師なしクラスタリングによる画像偽造検出の再考
- Authors: Haiwei Wu and Yiming Chen and Jiantao Zhou
- Abstract要約: 画像偽造検出のためのFOCAL(FOrensic ContrAstive cLustering)法を提案する。
FOCALは対照的な学習と教師なしクラスタリングに基づいている。
その結果、FOCALは最先端の競合アルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 26.923409536155166
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Image forgery detection aims to detect and locate forged regions in an image.
Most existing forgery detection algorithms formulate classification problems to
classify pixels into forged or pristine. However, the definition of forged and
pristine pixels is only relative within one single image, e.g., a forged region
in image A is actually a pristine one in its source image B (splicing forgery).
Such a relative definition has been severely overlooked by existing methods,
which unnecessarily mix forged (pristine) regions across different images into
the same category. To resolve this dilemma, we propose the FOrensic ContrAstive
cLustering (FOCAL) method, a novel, simple yet very effective paradigm based on
contrastive learning and unsupervised clustering for the image forgery
detection. Specifically, FOCAL 1) utilizes pixel-level contrastive learning to
supervise the high-level forensic feature extraction in an image-by-image
manner, explicitly reflecting the above relative definition; 2) employs an
on-the-fly unsupervised clustering algorithm (instead of a trained one) to
cluster the learned features into forged/pristine categories, further
suppressing the cross-image influence from training data; and 3) allows to
further boost the detection performance via simple feature-level concatenation
without the need of retraining. Extensive experimental results over six public
testing datasets demonstrate that our proposed FOCAL significantly outperforms
the state-of-the-art competing algorithms by big margins: +24.3% on Coverage,
+18.6% on Columbia, +17.5% on FF++, +14.2% on MISD, +13.5% on CASIA and +10.3%
on NIST in terms of IoU. The paradigm of FOCAL could bring fresh insights and
serve as a novel benchmark for the image forgery detection task. The code is
available at https://github.com/HighwayWu/FOCAL.
- Abstract(参考訳): 画像偽造検出は、画像内の偽造領域の検出と検出を目的としている。
既存の偽造検出アルゴリズムの多くは、ピクセルを鍛造またはプリシンに分類する分類問題を定式化している。
しかし、鍛造画素とプリスティーヌ画素の定義は、1つの画像内でのみ相対的であり、例えば、画像aの鍛造領域はそのソース画像bのプリスティーヌ画素である(スプライシング偽造)。
このような相対的な定義は、異なる画像にまたがる(プリスティン)領域を同じカテゴリに不必要に混合する既存の方法によってひどく見過ごされている。
このジレンマを解決するために,画像偽造検出のためのコントラスト学習と教師なしクラスタリングに基づく,新しい,シンプルかつ極めて効果的なパラダイムであるFOCAL法を提案する。
具体的には 焦点は
1) 画素レベルのコントラスト学習を利用して,上述の相対的定義を明示的に反映した画像ごとの高レベルの法定特徴抽出を監督する。
2)オンザフライの非教師なしクラスタリングアルゴリズム(トレーニング対象ではなく)を使用して,学習した機能を鍛造/プライスチンカテゴリにクラスタリングし,トレーニングデータからのクロスイメージの影響をさらに抑制する。
3)再トレーニングを必要とせず,単純な機能レベルの結合によって検出性能をさらに向上させることができる。
6つの公開テストデータセットにおける広範な実験結果から,提案手法は,カバレッジが24.3%,コロンビアが+18.6%,ff++が+17.5%,misdが+14.2%,casiaが+13.5%,iouが+10.3%という,最先端のアルゴリズムを大幅に上回っています。
focalのパラダイムは新鮮な洞察をもたらし、画像偽造検出タスクの新しいベンチマークとなるかもしれない。
コードはhttps://github.com/HighwayWu/FOCALで公開されている。
関連論文リスト
- Annotation Cost-Efficient Active Learning for Deep Metric Learning Driven Remote Sensing Image Retrieval [3.2109665109975696]
ANNEALは、類似した、異種のイメージペアで構成された、小さくて情報的なトレーニングセットを作成することを目的としている。
不確実性と多様性の基準を組み合わせることにより、画像対の情報性を評価する。
このアノテート方式は、ランド・ユース・ランド・カバー・クラスラベルによるアノテート画像と比較して、アノテーションコストを著しく削減する。
論文 参考訳(メタデータ) (2024-06-14T15:08:04Z) - Learning to Rank Patches for Unbiased Image Redundancy Reduction [80.93989115541966]
画像は、隣接する領域の画素が空間的に相関しているため、空間的冗長性に悩まされる。
既存のアプローチでは、意味の少ない画像領域を減らし、この制限を克服しようとしている。
本稿では,Learning to Rank Patchesと呼ばれる画像冗長性低減のための自己教師型フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T13:12:41Z) - MuSc: Zero-Shot Industrial Anomaly Classification and Segmentation with
Mutual Scoring of the Unlabeled Images [12.48347948647802]
産業ビジョンにおけるゼロショット異常分類(AC)とセグメンテーション(AS)について検討した。
我々は、識別特性を利用して、ラベルなし画像のMutual Scoring (MuSc) による新しいゼロショットAC/AS法を設計する。
本稿では,画像レベルの異常分類のためのRe-scoring with Constrained Image-level Neighborhood (RsCIN)という最適化手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T05:16:52Z) - Multilevel Saliency-Guided Self-Supervised Learning for Image Anomaly
Detection [15.212031255539022]
異常検出(AD)はコンピュータビジョンの基本課題である。
そこで我々は,サリエンシガイダンスを活用して意味的手がかりを付加するCutSwapを提案する。
CutSwapは、2つの主流ADベンチマークデータセット上で最先端のADパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-30T08:03:53Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - MisMatch: Calibrated Segmentation via Consistency on Differential
Morphological Feature Perturbations with Limited Labels [5.500466607182699]
半教師付き学習は、医用画像におけるラベル不足の問題に対処する上で有望なパラダイムである。
MisMatchは、ペアの予測間の一貫性に基づいた半教師付きセグメンテーションフレームワークである。
論文 参考訳(メタデータ) (2021-10-23T09:22:41Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。