論文の概要: AI Singapore Trusted Media Challenge Dataset
- arxiv url: http://arxiv.org/abs/2201.04788v1
- Date: Thu, 13 Jan 2022 04:32:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 13:57:02.034251
- Title: AI Singapore Trusted Media Challenge Dataset
- Title(参考訳): ai singapore trusted media challengeデータセット
- Authors: Weiling Chen, Benjamin Chua, Stefan Winkler
- Abstract要約: このチャレンジデータセットは、4,380のフェイクと2,563のリアルビデオで構成されている。
データセット内のビデオは、様々な期間、背景、照明、360pの最小解像度を持ち、送信エラーと悪い圧縮を模倣する摂動を含む可能性がある。
その結果、我々のデータセットは有望な品質であり、多くの場合、人間の参加者を騙すことができることがわかった。
- 参考スコア(独自算出の注目度): 8.727042406305692
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The development of powerful deep learning technologies has brought about some
negative effects to both society and individuals. One such issue is the
emergence of fake media. To tackle the issue, we have organized the Trusted
Media Challenge (TMC) to explore how Artificial Intelligence (AI) technologies
could be leveraged to combat fake media.
Together with the challenge, we have released a challenge dataset which
consists of 4,380 fake and 2,563 real videos. All these videos are accompanied
with audios and different video and/or audio manipulation methods are adopted
to produce different types of fake media. The videos in the dataset have
various durations, background, illumination, a minimum resolution of 360p and
may contain perturbations that mimic transmission errors and bad compression.
We have also carried out a user study to demonstrate the quality of our
composed dataset. The results show that our dataset has a promising quality and
can fool human participants in many cases.
- Abstract(参考訳): 強力なディープラーニング技術の開発は、社会と個人の両方にマイナスの影響をもたらした。
そのような問題の1つは偽メディアの出現である。
この問題に対処するため、私たちはTrusted Media Challenge (TMC)を組織し、人工知能(AI)技術をどのように活用して偽メディアと戦うかを探った。
このチャレンジと共に、私たちは4,380のフェイクと2,563のリアルビデオからなるチャレンジデータセットをリリースしました。
これらのビデオにはオーディオが付属しており、異なる種類のフェイクメディアを生成するために異なるビデオおよび/またはオーディオ操作方法が採用されている。
データセット内のビデオは、様々な期間、背景、照明、360pの最小解像度を持ち、送信エラーと悪い圧縮を模倣する摂動を含む可能性がある。
作成したデータセットの品質を示すために,ユーザスタディも実施している。
その結果、データセットには有望な品質があり、多くの場合、人間の参加者を騙すことができます。
関連論文リスト
- Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Learning an Actionable Discrete Diffusion Policy via Large-Scale Actionless Video Pre-Training [69.54948297520612]
ジェネラリストの具体化エージェントを学ぶことは、主にアクションラベル付きロボットデータセットの不足に起因して、課題を提起する。
これらの課題に対処するための新しい枠組みを導入し、人間のビデオにおける生成前トレーニングと、少数のアクションラベル付きロボットビデオのポリシー微調整を組み合わせるために、統一された離散拡散を利用する。
提案手法は, 従来の最先端手法と比較して, 高忠実度な今後の計画ビデオを生成し, 細調整されたポリシーを強化する。
論文 参考訳(メタデータ) (2024-02-22T09:48:47Z) - AVTENet: Audio-Visual Transformer-based Ensemble Network Exploiting
Multiple Experts for Video Deepfake Detection [53.448283629898214]
近年の超現実的なディープフェイクビデオの普及は、オーディオと視覚の偽造の脅威に注意を向けている。
AI生成のフェイクビデオの検出に関するこれまでのほとんどの研究は、視覚的モダリティまたはオーディオ的モダリティのみを使用していた。
音響操作と視覚操作の両方を考慮したAVTENet(Audio-Visual Transformer-based Ensemble Network)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T19:01:26Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Challenges and Solutions in DeepFakes [8.401473551081747]
ディープラーニングを利用したアプリケーションが最近登場したのがDeep Fakeだ。
これは、人間が本物と区別できない偽のイメージやビデオを作成するのに役立つ。
Nvidiaが収集したFlickrのデータセットから70万の顔と、スタイルのGANによって生成された100万の偽の顔からサンプリングされた70万の偽の顔を含む、140万の顔と偽の顔のデータセットを紹介した。
モデルが実際の顔や偽の顔を識別できるように、データセットでモデルをトレーニングします。
論文 参考訳(メタデータ) (2021-09-12T01:22:12Z) - FakeAVCeleb: A Novel Audio-Video Multimodal Deepfake Dataset [21.199288324085444]
近年,人間の声のクローン化や合成という新たな課題が表面化しつつある。
ディープフェイクビデオとオーディオを使った偽造攻撃の脅威が高まっているため、ビデオとオーディオの両方に焦点を当てた新しいディープフェイク検知器が求められている。
本稿では, ディープフェイク映像だけでなく, 合成音声も含む新しいオーディオ・ビデオ・ディープフェイク・データセット(FakeAVCeleb)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:49:36Z) - Media Forensics and DeepFakes: an overview [12.333160116225445]
リアルメディアと合成メディアの境界は非常に薄くなっている。
ディープフェイクは選挙中に世論を操ったり、詐欺を犯したり、軽視したり、脅迫したりするのに使われる。
偽マルチメディアコンテンツを検出する自動化ツールが緊急に必要である。
論文 参考訳(メタデータ) (2020-01-18T00:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。