論文の概要: Copy-Move Detection in Optical Microscopy: A Segmentation Network and A Dataset
- arxiv url: http://arxiv.org/abs/2412.10258v1
- Date: Fri, 13 Dec 2024 16:29:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:01:53.637523
- Title: Copy-Move Detection in Optical Microscopy: A Segmentation Network and A Dataset
- Title(参考訳): 光学顕微鏡におけるコピー・モーブ検出:セグメンテーションネットワークとデータセット
- Authors: Hao-Chiang Shao, Yuan-Rong Liao, Tse-Yu Tseng, Yen-Liang Chuo, Fong-Yi Lin,
- Abstract要約: CMSeg-Net(CMSeg-Net)は、未確認の複製領域を識別できるコピー・モーブ・フォージェリー・セグメンテーション・ネットワークである。
CMSeg-Netはマルチレゾリューションエンコーダデコーダアーキテクチャ上に構築されており、自己相関と相関支援空間アテンションモジュールが組み込まれている。
我々は、ICIP 2022 Challengeのオープンデータを用いて、FakeParaEggという名前の顕微鏡画像の複写フォージェリーデータセットを作成しました。
- 参考スコア(独自算出の注目度): 1.4505273244528207
- License:
- Abstract: With increasing revelations of academic fraud, detecting forged experimental images in the biomedical field has become a public concern. The challenge lies in the fact that copy-move targets can include background tissue, small foreground objects, or both, which may be out of the training domain and subject to unseen attacks, rendering standard object-detection-based approaches less effective. To address this, we reformulate the problem of detecting biomedical copy-move forgery regions as an intra-image co-saliency detection task and propose CMSeg-Net, a copy-move forgery segmentation network capable of identifying unseen duplicated areas. Built on a multi-resolution encoder-decoder architecture, CMSeg-Net incorporates self-correlation and correlation-assisted spatial-attention modules to detect intra-image regional similarities within feature tensors at each observation scale. This design helps distinguish even small copy-move targets in complex microscopic images from other similar objects. Furthermore, we created a copy-move forgery dataset of optical microscopic images, named FakeParaEgg, using open data from the ICIP 2022 Challenge to support CMSeg-Net's development and verify its performance. Extensive experiments demonstrate that our approach outperforms previous state-of-the-art methods on the FakeParaEgg dataset and other open copy-move detection datasets, including CASIA-CMFD, CoMoFoD, and CMF. The FakeParaEgg dataset, our source code, and the CMF dataset with our manually defined segmentation ground truths available at ``https://github.com/YoursEver/FakeParaEgg''.
- Abstract(参考訳): 学術詐欺の露呈が進むにつれ、バイオメディカル分野における偽画像の検出が公衆の関心事となっている。
この課題は、コピー・ムーブのターゲットには、背景組織、小さな前景のオブジェクト、あるいはその両方が含まれており、トレーニング領域外にあり、目に見えない攻撃を受ける可能性があるため、標準のオブジェクト検出ベースのアプローチがより効果的でないという事実にある。
そこで本研究では,生物医学的コピー・モーブ・フォージェリ領域を画像内同時検出タスクとして検出する問題を修正し,コピー・モーブ・フォージェリ・セグメンテーションネットワークであるCMSeg-Netを提案する。
CMSeg-Netはマルチレゾリューションエンコーダデコーダアーキテクチャに基づいており、自己相関と相関支援された空間アテンションモジュールを組み込んで、各観測スケールで特徴テンソル内の画像内領域の類似性を検出する。
このデザインは、複雑な顕微鏡画像における小さなコピーモーブターゲットと、他の類似したオブジェクトを区別するのに役立ちます。
さらに、ICIP 2022 Challengeのオープンデータを用いて、CMSeg-Netの開発を支援し、その性能を検証するために、FakeParaEggという光学顕微鏡画像の複写フォージェリーデータセットを作成しました。
CASIA-CMFD, CoMoFoD, CMFなど, FakeParaEggデータセットおよび他のオープンコピー・モブ検出データセットにおいて, 本手法が従来の最先端手法よりも優れていることを示す。
FakeParaEggデータセット、ソースコード、CMFデータセットは、手動で定義されたセグメンテーション基盤真理を ``https://github.com/YoursEver/FakeParaEgg''' で公開しています。
関連論文リスト
- Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Object-level Copy-Move Forgery Image Detection based on Inconsistency Mining [25.174869954072648]
Inconsistency Mining(IMNet)に基づくオブジェクトレベルのコピー・モーブ偽画像検出を提案する。
オブジェクトレベルの完全なターゲットを得るために、ソースと改ざんされた領域のプロトタイプをカスタマイズし、動的に更新する。
提案するIMNetの有効性とロバスト性を検証した3つの公開データセットについて実験を行った。
論文 参考訳(メタデータ) (2024-03-31T09:01:17Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - ObjFormer: Learning Land-Cover Changes From Paired OSM Data and Optical High-Resolution Imagery via Object-Guided Transformer [31.46969412692045]
本稿では,ペアOSMデータと光学画像を用いた土地被覆変化の直接検出の先駆者となる。
本稿では、オブジェクトベース画像解析(OBIA)技術と高度な視覚変換器アーキテクチャを自然に組み合わせたオブジェクト誘導変換器(Former)を提案する。
OpenMapCDと呼ばれる大規模なベンチマークデータセットは、詳細な実験を行うために構築されている。
論文 参考訳(メタデータ) (2023-10-04T09:26:44Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Can Deep Network Balance Copy-Move Forgery Detection and
Distinguishment? [3.7311680121118345]
コピーモーブ偽造検出は、デジタル画像鑑定において重要な研究領域である。
近年では、コピー・ムーブの偽造品で原本と複製物とを区別することへの関心が高まっている。
本稿では,エンド・ツー・エンドのディープ・ニューラル・ネットワークにおけるトランスフォーマー・アーキテクチャを用いた革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T14:35:56Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Selective Information Passing for MR/CT Image Segmentation [9.898316422853528]
選択的情報伝達ネットワーク(SIP-Net)という自己制御機能を持つ新しい3Dネットワークを提案する。
我々は,MICCAI MR Image 2012 Grant Challengeデータセット, TCIA Pancreas CT-82, MICCAI 2017 Prostate Liver tumor (LiTS) Challengeデータセットについて検討した。
論文 参考訳(メタデータ) (2020-10-10T06:47:53Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。