論文の概要: Grand Challenge On Detecting Cheapfakes
- arxiv url: http://arxiv.org/abs/2304.01328v1
- Date: Mon, 3 Apr 2023 19:50:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 16:25:46.880370
- Title: Grand Challenge On Detecting Cheapfakes
- Title(参考訳): チープフェイク検出のグランドチャレンジ
- Authors: Duc-Tien Dang-Nguyen and Sohail Ahmed Khan and Cise Midoglu and
Michael Riegler and P{\aa}l Halvorsen and Minh-Son Dao
- Abstract要約: チープフェイクはディープフェイクよりも一般的であることが知られている。
この課題は、サンプルがOOCであるかどうかを検出するために使用できるモデルを開発し、ベンチマークすることである。
- 参考スコア(独自算出の注目度): 5.665833517851311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cheapfake is a recently coined term that encompasses non-AI ("cheap")
manipulations of multimedia content. Cheapfakes are known to be more prevalent
than deepfakes. Cheapfake media can be created using editing software for
image/video manipulations, or even without using any software, by simply
altering the context of an image/video by sharing the media alongside
misleading claims. This alteration of context is referred to as out-of-context
(OOC) misuse of media. OOC media is much harder to detect than fake media,
since the images and videos are not tampered. In this challenge, we focus on
detecting OOC images, and more specifically the misuse of real photographs with
conflicting image captions in news items. The aim of this challenge is to
develop and benchmark models that can be used to detect whether given samples
(news image and associated captions) are OOC, based on the recently compiled
COSMOS dataset.
- Abstract(参考訳): Cheapfake(チープフェイク)は、マルチメディアコンテンツの非AI(チープ)操作を含む最近作られた用語である。
チープフェイクはディープフェイクよりも一般的であることが知られている。
画像/ビデオ操作のための編集ソフトウェアを使って、あるいはソフトウェアを使わずに、単にメディアを誤解を招くクレームと共有することで、画像/ビデオのコンテキストを変更することで、安価なフェイクメディアを作成できる。
このコンテキストの変更は、メディアのout-of-context(ooc)誤用と呼ばれる。
OOCメディアは、画像やビデオが改ざんされないため、偽メディアよりもずっと検出が難しい。
本稿では,OOC画像の検出に焦点をあてるとともに,ニュース記事中の画像キャプションと矛盾する実画像の誤用に着目した。
この課題の目的は、最近コンパイルされたCOSMOSデータセットに基づいて、与えられたサンプル(新しい画像と関連するキャプション)がOOCであるかどうかを検出できるモデルを開発し、ベンチマークすることである。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - FaceSigns: Semi-Fragile Neural Watermarks for Media Authentication and
Countering Deepfakes [25.277040616599336]
近年のリアルな画像合成技術やビデオ合成技術の発展により、ディープフェイクやメディアの操作は目覚ましい脅威になりつつある。
本稿では,画像画素に埋め込まれた見えない秘密メッセージを検証することによってメディア認証を可能にする,深層学習に基づく半フレギール透かし手法を提案する。
論文 参考訳(メタデータ) (2022-04-05T03:29:30Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Multimodal Fake News Detection [1.929039244357139]
単調な手法とマルチモーダル手法の両方を用いて、ファケディットデータセット上のフェイクニュースのきめ細かい分類を行う。
操作されたコンテンツ、Satire、False接続などの偽ニュースカテゴリは、画像の使用の恩恵を強く受けている。
画像を使用することで、他のカテゴリの結果も改善されるが、影響は少ない。
論文 参考訳(メタデータ) (2021-12-09T10:57:18Z) - What's wrong with this video? Comparing Explainers for Deepfake
Detection [13.089182408360221]
Deepfakesは、個人の顔が別の顔に置き換えられたコンピュータ操作されたビデオです。
本研究では,実映像と偽動画のラベル付けを説明するために,ホワイトボックス,ブラックボックス,モデル固有の手法を開発し,拡張し,比較する。
特に,shap,gradcam,self-attentionモデルを用いて,高効率ネットに基づく最先端検出器の予測を説明する。
論文 参考訳(メタデータ) (2021-05-12T18:44:39Z) - News Image Steganography: A Novel Architecture Facilitates the Fake News
Identification [52.83247667841588]
フェイクニュースの大部分が、他の情報源からのアンスタンプ画像を引用している。
本稿では,GANに基づく画像ステガノグラフィによる不整合を明らかにするために,News Image Steganographyというアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-01-03T11:12:23Z) - What makes fake images detectable? Understanding properties that
generalize [55.4211069143719]
深層ネットワークは、博士画像の微妙なアーティファクトを拾い上げることができる。
我々は、偽画像のどの特性が検出可能かを理解することを模索する。
検出可能な特性を誇張する手法を示す。
論文 参考訳(メタデータ) (2020-08-24T17:50:28Z) - Media Forensics and DeepFakes: an overview [12.333160116225445]
リアルメディアと合成メディアの境界は非常に薄くなっている。
ディープフェイクは選挙中に世論を操ったり、詐欺を犯したり、軽視したり、脅迫したりするのに使われる。
偽マルチメディアコンテンツを検出する自動化ツールが緊急に必要である。
論文 参考訳(メタデータ) (2020-01-18T00:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。