論文の概要: Exploring Saliency Bias in Manipulation Detection
- arxiv url: http://arxiv.org/abs/2402.07338v3
- Date: Tue, 20 Aug 2024 18:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 22:54:42.286884
- Title: Exploring Saliency Bias in Manipulation Detection
- Title(参考訳): マニピュレーション検出におけるサリエンシバイアスの探索
- Authors: Joshua Krinsky, Alan Bettis, Qiuyu Tang, Daniel Moreira, Aparna Bharati,
- Abstract要約: ソーシャルメディアによる偽ニュースの爆発と改ざん画像による誤報は、画像検出のためのモデルとデータセットの開発に発展をもたらした。
既存の検出手法は、特定の操作が視聴者の知覚に与える影響を考慮せずに、主にメディアオブジェクトを分離して扱う。
本稿では,一般的な画像操作データセットにおける視覚的・意味的サリエンシの傾向とその検出への影響を解析する枠組みを提案する。
- 参考スコア(独自算出の注目度): 2.156234249946792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The social media-fuelled explosion of fake news and misinformation supported by tampered images has led to growth in the development of models and datasets for image manipulation detection. However, existing detection methods mostly treat media objects in isolation, without considering the impact of specific manipulations on viewer perception. Forensic datasets are usually analyzed based on the manipulation operations and corresponding pixel-based masks, but not on the semantics of the manipulation, i.e., type of scene, objects, and viewers' attention to scene content. The semantics of the manipulation play an important role in spreading misinformation through manipulated images. In an attempt to encourage further development of semantic-aware forensic approaches to understand visual misinformation, we propose a framework to analyze the trends of visual and semantic saliency in popular image manipulation datasets and their impact on detection.
- Abstract(参考訳): ソーシャルメディアによるフェイクニュースの爆発と、改ざん画像で裏付けられた誤報は、画像検出のためのモデルとデータセットの開発に発展をもたらした。
しかし、既存の検出手法は、特定の操作が視聴者の知覚に与える影響を考慮せずに、主にメディアオブジェクトを分離して扱う。
法医学的データセットは通常、操作操作と対応するピクセルベースのマスクに基づいて分析されるが、操作の意味論、すなわちシーンの種類、オブジェクト、視聴者のシーンコンテンツへの注意に基づくものではない。
操作の意味論は、操作された画像を通して誤情報を広げる上で重要な役割を果たしている。
視覚的誤情報を理解するための意味認識法医学的アプローチのさらなる発展を促すために,一般的な画像操作データセットにおける視覚的・意味的サリエンシの傾向とその検出への影響を分析する枠組みを提案する。
関連論文リスト
- Deepfake detection by exploiting surface anomalies: the SurFake approach [29.088218634944116]
本稿では, ディープフェイク生成が, 買収時のシーン全体の特性に与える影響について検討する。
画像に描かれた表面の特性を解析することにより、深度検出のためにCNNを訓練するのに使用できる記述子を得ることができる。
論文 参考訳(メタデータ) (2023-10-31T16:54:14Z) - AutoSplice: A Text-prompt Manipulated Image Dataset for Media Forensics [31.714342131823987]
本稿では,言語画像生成モデルがメディア法医学にもたらす課題のレベルを検討することを目的とする。
そこで本研究では,DALL-E2言語画像モデルを利用して,テキストプロンプトによって誘導されるマスキング領域を自動的に生成し,スプライスする手法を提案する。
このアプローチによってAutoSpliceと呼ばれる新しいイメージデータセットが作成され、5,894個の操作と認証されたイメージが含まれている。
論文 参考訳(メタデータ) (2023-04-14T00:14:08Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - DisPositioNet: Disentangled Pose and Identity in Semantic Image
Manipulation [83.51882381294357]
DisPositioNetは、シーングラフを用いた画像操作のタスクに対して、各オブジェクトのアンタングル表現を学習するモデルである。
我々のフレームワークは、グラフ内の特徴表現と同様に、変分潜在埋め込みの切り離しを可能にする。
論文 参考訳(メタデータ) (2022-11-10T11:47:37Z) - ObjectFormer for Image Manipulation Detection and Localization [118.89882740099137]
画像操作の検出とローカライズを行うObjectFormerを提案する。
画像の高周波特徴を抽出し,マルチモーダルパッチの埋め込みとしてRGB特徴と組み合わせる。
各種データセットについて広範な実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-28T12:27:34Z) - Complex Scene Image Editing by Scene Graph Comprehension [17.72638225034884]
シーングラフ(SGC-Net)による複雑なシーン画像編集を実現するための2段階手法を提案する。
第1段階では,シーングラフを用いた関心領域予測ネットワークを訓練し,対象物体の位置を推定する。
第2段階では条件付き拡散モデルを用いて、RoI予測に基づいて画像を編集する。
論文 参考訳(メタデータ) (2022-03-24T05:12:54Z) - Detect and Locate: A Face Anti-Manipulation Approach with Semantic and
Noise-level Supervision [67.73180660609844]
本稿では,画像中の偽造顔を効率的に検出する,概念的にシンプルだが効果的な方法を提案する。
提案手法は,画像に関する意味の高い意味情報を提供するセグメンテーションマップに依存する。
提案モデルでは,最先端検出精度と顕著なローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2021-07-13T02:59:31Z) - Content-Based Detection of Temporal Metadata Manipulation [91.34308819261905]
画像の撮像時間とその内容と地理的位置とが一致しているかどうかを検証するためのエンドツーエンドのアプローチを提案する。
中心となる考え方は、画像の内容、キャプチャ時間、地理的位置が一致する確率を予測するための教師付き一貫性検証の利用である。
我々のアプローチは、大規模なベンチマークデータセットの以前の作業により改善され、分類精度が59.03%から81.07%に向上した。
論文 参考訳(メタデータ) (2021-03-08T13:16:19Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。