論文の概要: Deepfake Detection: A Comparative Analysis
- arxiv url: http://arxiv.org/abs/2308.03471v1
- Date: Mon, 7 Aug 2023 10:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 14:16:44.207125
- Title: Deepfake Detection: A Comparative Analysis
- Title(参考訳): Deepfake Detection: 比較分析
- Authors: Sohail Ahmed Khan and Duc-Tien Dang-Nguyen
- Abstract要約: 8つの教師付きディープラーニングアーキテクチャと2つのトランスフォーマーベースモデルを4つのベンチマークで自己教師型戦略を用いて事前訓練した。
分析には、データセット内およびデータセット間評価、最高のパフォーマンスモデル、一般化機能、拡張の影響などが含まれる。
- 参考スコア(独自算出の注目度): 2.644723682054489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper present a comprehensive comparative analysis of supervised and
self-supervised models for deepfake detection. We evaluate eight supervised
deep learning architectures and two transformer-based models pre-trained using
self-supervised strategies (DINO, CLIP) on four benchmarks (FakeAVCeleb,
CelebDF-V2, DFDC, and FaceForensics++). Our analysis includes intra-dataset and
inter-dataset evaluations, examining the best performing models, generalisation
capabilities, and impact of augmentations. We also investigate the trade-off
between model size and performance. Our main goal is to provide insights into
the effectiveness of different deep learning architectures (transformers,
CNNs), training strategies (supervised, self-supervised), and deepfake
detection benchmarks. These insights can help guide the development of more
accurate and reliable deepfake detection systems, which are crucial in
mitigating the harmful impact of deepfakes on individuals and society.
- Abstract(参考訳): 本稿では,ディープフェイク検出のための教師付きモデルと自己監督型モデルの総合的比較分析を行う。
本研究では,FakeAVCeleb,CelebDF-V2,DFDC,FaceForensics++の4つのベンチマークを用いて,教師付きディープラーニングアーキテクチャと,自己教師型戦略(DINO,CLIP)を用いた2つのトランスフォーマーベースモデルの評価を行った。
分析には、データセット内およびデータセット間評価、最高のパフォーマンスモデル、一般化機能、拡張の影響などが含まれる。
また,モデルのサイズと性能のトレードオフについても検討する。
私たちの主な目標は、異なるディープラーニングアーキテクチャ(トランスフォーマー、CNN)、トレーニング戦略(教師、自己管理)、ディープフェイク検出ベンチマークの有効性に関する洞察を提供することです。
これらの知見は、個人や社会に対するディープフェイクの有害な影響を緩和するために重要な、より正確で信頼性の高いディープフェイク検知システムの開発を導くのに役立つ。
関連論文リスト
- Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - How Close are Other Computer Vision Tasks to Deepfake Detection? [42.79190870582115]
教師なしの方法でデータを分離するために,モデルの生容量を評価するための新しい測定手法「モデル分離可能性」を提案する。
分析の結果,事前学習した顔認識モデルは,他のモデルよりもディープフェイク検出と密接な関係があることが判明した。
自己教師型モデルは最高の結果をもたらすが、過度に適合するリスクがある。
論文 参考訳(メタデータ) (2023-10-02T06:32:35Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Interpretations Cannot Be Trusted: Stealthy and Effective Adversarial
Perturbations against Interpretable Deep Learning [16.13790238416691]
この研究はAdvEdgeとAdvEdge$+$という2つの攻撃を導入し、ターゲットのディープラーニングモデルと組み合わせた解釈モデルの両方を欺いた。
我々の分析は、ディープラーニングモデルとそのインタプリタを騙すという観点から、我々の攻撃の有効性を示している。
論文 参考訳(メタデータ) (2022-11-29T04:45:10Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Adversarial Robustness of Deep Learning: Theory, Algorithms, and
Applications [27.033174829788404]
本チュートリアルは,ディープラーニングの敵対的堅牢性の基礎を紹介することを目的としている。
我々は、ディープニューラルネットワーク(DNN)の敵攻撃と堅牢性検証における最先端技術を強調します。
深層学習モデルの堅牢性を改善するための効果的な対策も導入する。
論文 参考訳(メタデータ) (2021-08-24T00:08:33Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - A Comprehensive Evaluation Framework for Deep Model Robustness [44.20580847861682]
ディープニューラルネットワーク(DNN)は、幅広いアプリケーションで顕著なパフォーマンスを達成しています。
彼らは敵の防御を動機付ける敵の例に弱い。
本稿では,包括的で厳密で一貫性のある評価指標を含むモデル評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-24T01:04:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。