論文の概要: Deepfake Detection using Biological Features: A Survey
- arxiv url: http://arxiv.org/abs/2301.05819v1
- Date: Sat, 14 Jan 2023 05:07:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 18:42:44.571082
- Title: Deepfake Detection using Biological Features: A Survey
- Title(参考訳): 生物学的特徴を用いたディープフェイク検出:調査
- Authors: Kundan Patil, Shrushti Kale, Jaivanti Dhokey, Abhishek Gulhane
- Abstract要約: 本研究は, ディープフェイクの歴史, 発達と検出, 生理的測定に基づく課題について述べる。
ディープフェイクは個人を脅迫し、テロ攻撃を計画し、偽情報を広め、個人を非難し、政治的混乱を防いだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake is a deep learning-based technique that makes it easy to change or
modify images and videos. In investigations and court, visual evidence is
commonly employed, but these pieces of evidence may now be suspect due to
technological advancements in deepfake. Deepfakes have been used to blackmail
individuals, plan terrorist attacks, disseminate false information, defame
individuals, and foment political turmoil. This study describes the history of
deepfake, its development and detection, and the challenges based on
physiological measurements such as eyebrow recognition, eye blinking detection,
eye movement detection, ear and mouth detection, and heartbeat detection. The
study also proposes a scope in this field and compares the different biological
features and their classifiers. Deepfakes are created using the generative
adversarial network (GANs) model, and were once easy to detect by humans due to
visible artifacts. However, as technology has advanced, deepfakes have become
highly indistinguishable from natural images, making it important to review
detection methods.
- Abstract(参考訳): Deepfakeは、画像やビデオの変更や修正を容易にするディープラーニングベースのテクニックだ。
調査や法廷では、視覚的な証拠が一般的に用いられるが、ディープフェイクの技術的進歩により、これらの証拠が疑われることがある。
ディープフェイクは個人を脅迫し、テロ攻撃を計画し、偽情報を広め、個人を非難し、政治的混乱を防いだ。
本研究は, ディープフェイクの歴史, その発達と検出, および, 視線認識, 点眼検出, 眼球運動検出, 耳と口の検知, 心拍検出などの生理学的測定に基づく課題について述べる。
この研究はまた、この分野のスコープを提案し、異なる生物学的特徴とその分類器を比較した。
deepfakesはgenerative adversarial network (gans)モデルを使用して作成され、かつては目に見えるアーティファクトのために人間が容易に検出できた。
しかし、技術が進歩するにつれて、ディープフェイクは自然画像と区別しにくくなり、検出方法の見直しが重要である。
関連論文リスト
- DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - GazeForensics: DeepFake Detection via Gaze-guided Spatial Inconsistency
Learning [63.547321642941974]
本稿では,3次元視線推定モデルから得られた視線表現を利用する,革新的なDeepFake検出手法であるGazeForensicsを紹介する。
実験の結果,提案したGazeForensicsは現在の最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-13T04:48:33Z) - Comparative Analysis of Deep-Fake Algorithms [0.0]
ディープフェイク(Deepfakes)は、ディープラーニングベースのフェイクビデオとしても知られており、近年大きな関心を集めている。
これらのディープフェイクビデオは、誤った情報を広めたり、個人を偽装したり、フェイクニュースを作るといった悪質な目的で使用することができる。
ディープフェイク検出技術は、顔認識、モーション分析、音声と視覚の同期といった様々なアプローチを使用する。
論文 参考訳(メタデータ) (2023-09-06T18:17:47Z) - Why Do Facial Deepfake Detectors Fail? [9.60306700003662]
近年のディープフェイク技術の発展により、ビデオ、画像、オーディオなどの非常に現実的な偽メディアの作成が可能になった。
これらの資料は、偽造、偽情報、さらには国家安全保障に対する脅威など、人間の認証に重大な課題を提起している。
いくつかのディープフェイク検出アルゴリズムが提案されており、ディープフェイク作成者とディープフェイク検出装置との間の武器競争が進行中である。
論文 参考訳(メタデータ) (2023-02-25T20:54:02Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - Using Deep Learning to Detecting Deepfakes [0.0]
ディープフェイク(Deepfakes)とは、ある人物の顔を別のコンピュータが生成した顔に置き換えるビデオまたは画像である。
このオンライン脅威に対抗するために、研究者たちはディープフェイクを検出するモデルを開発した。
本研究では、ディープラーニングアルゴリズムを用いて、この略奪的な脅威に対処する様々なディープフェイク検出モデルについて検討する。
論文 参考訳(メタデータ) (2022-07-27T17:05:16Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [73.61769046989258]
近年、ディープフェイク(deepfake deepfake)と呼ばれるフェイススワップ技術が悪用され、人々の関心が高まっている。
ディープフェイクに対する有望な対策はディープフェイク検出です。
deepfake検出器のトレーニングとテストをサポートするために、いくつかのdeepfakeデータセットがリリースされた。
インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介します。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - VideoForensicsHQ: Detecting High-quality Manipulated Face Videos [77.60295082172098]
偽造検知器の性能は、人間の目で見られる人工物の存在にどのように依存するかを示す。
前例のない品質の顔ビデオ偽造検出のための新しいベンチマークデータセットを導入する。
論文 参考訳(メタデータ) (2020-05-20T21:17:43Z) - The Creation and Detection of Deepfakes: A Survey [32.04375809239154]
生成的ディープラーニングアルゴリズムは、何が本物かと何が偽なのかを区別することが難しい点まで進歩している。
本稿では、ディープフェイクの作成と検出について検討し、これらのアーキテクチャがどのように機能するかを詳細に把握する。
論文 参考訳(メタデータ) (2020-04-23T13:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。