論文の概要: DeFakePro: Decentralized DeepFake Attacks Detection using ENF
Authentication
- arxiv url: http://arxiv.org/abs/2207.13070v1
- Date: Fri, 22 Jul 2022 01:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:36:26.223159
- Title: DeFakePro: Decentralized DeepFake Attacks Detection using ENF
Authentication
- Title(参考訳): DeFakePro:ENF認証を用いた分散型DeepFake攻撃検出
- Authors: Deeraj Nagothu, Ronghua Xu, Yu Chen, Erik Blasch, Alexander Aved
- Abstract要約: DeFakeProは、オンラインビデオ会議ツールにおけるコンセンサスメカニズムに基づくDeepfake検出技術である。
ENF信号のゆらぎの類似性は、PoENFアルゴリズムを用いて、会議ツールで放送されたメディアを認証する。
- 参考スコア(独自算出の注目度): 66.2466055910145
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Advancements in generative models, like Deepfake allows users to imitate a
targeted person and manipulate online interactions. It has been recognized that
disinformation may cause disturbance in society and ruin the foundation of
trust. This article presents DeFakePro, a decentralized consensus
mechanism-based Deepfake detection technique in online video conferencing
tools. Leveraging Electrical Network Frequency (ENF), an environmental
fingerprint embedded in digital media recording, affords a consensus mechanism
design called Proof-of-ENF (PoENF) algorithm. The similarity in ENF signal
fluctuations is utilized in the PoENF algorithm to authenticate the media
broadcasted in conferencing tools. By utilizing the video conferencing setup
with malicious participants to broadcast deep fake video recordings to other
participants, the DeFakePro system verifies the authenticity of the incoming
media in both audio and video channels.
- Abstract(参考訳): deepfakeのような生成モデルの進歩により、ユーザーは対象人物を模倣し、オンラインインタラクションを操作することができる。
偽情報が社会の混乱を引き起こし、信頼の基礎を損なう可能性があることが認識されている。
本稿では,オンラインビデオ会議ツールにおける分散コンセンサス機構に基づくディープフェイク検出手法であるdefakeproについて述べる。
デジタルメディア記録に埋め込まれた環境指紋であるElectronic Network Frequency (ENF)は、Proof-of-ENF (PoENF)アルゴリズムと呼ばれるコンセンサス機構を設計する。
ENF信号のゆらぎの類似性は、PoENFアルゴリズムを用いて、会議ツールで放送されたメディアを認証する。
悪意のある参加者によるビデオ会議設定を利用して、他の参加者にディープフェイクビデオ録画をブロードキャストすることで、DeFakeProシステムは、入ってくるメディアの真偽をオーディオチャンネルとビデオチャンネルの両方で検証する。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - PhenoAuth: A Novel PUF-Phenotype-based Authentication Protocol for IoT Devices [9.608432807038083]
本研究は,PUF Phenotype の概念に基づく完全耐雑音認証プロトコルを提案する。
デバイス間通信に適した設定で、相互認証とフォワードの秘密性を示す。
論文 参考訳(メタデータ) (2024-03-06T06:04:32Z) - DF-TransFusion: Multimodal Deepfake Detection via Lip-Audio
Cross-Attention and Facial Self-Attention [13.671150394943684]
本稿では,ディープフェイク検出タスクのための音声とビデオの同時処理を目的とした,新しいマルチモーダルオーディオ・ビデオ・フレームワークを提案する。
本モデルでは,細調整VGG-16ネットワークを介して視覚的手がかりを抽出しながら,入力音声による唇の同期に重きを置いている。
論文 参考訳(メタデータ) (2023-09-12T18:37:05Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - FakeBuster: A DeepFakes Detection Tool for Video Conferencing Scenarios [9.10316289334594]
本稿では,ソーシャルメディア上での映像会議および顔操作におけるインポスタ検出のための新しいDeepFake検出器FakeBusterを提案する。
FakeBusterはスタンドアロンのディープラーニングベースのソリューションで、ビデオ会議ベースのミーティング中に他の人のビデオが操作またはスプーフィングされているかどうかをユーザーが検出できます。
論文 参考訳(メタデータ) (2021-01-09T09:06:08Z) - Sharp Multiple Instance Learning for DeepFake Video Detection [54.12548421282696]
我々はDeepFakeビデオに、ビデオレベルのラベルのみを提供するが、フェイクビデオのすべての顔が操作されるわけではない部分的な顔攻撃という新しい問題を導入する。
インスタンス埋め込みからバッグ予測への直接マッピングを構築する鋭いMIL(S-MIL)を提案する。
FFPMSと広く使われているDFDCデータセットの実験により、S-MILは部分的に攻撃されたDeepFakeビデオ検出において他の手法よりも優れていることが確認された。
論文 参考訳(メタデータ) (2020-08-11T08:52:17Z) - Physical-Layer Authentication Using Channel State Information and
Machine Learning [0.0]
相互接続された無線環境における強力な認証は、依然として重要な目標でありながら、時には先入観的な目標である。
チャネル機能を用いた物理層認証の研究は、様々なデバイスのネットワークセキュリティを改善する技術として有望である。
本稿では,機械学習とマルチインプットマルチアウトプット通信チャネル情報を用いて,特定のデバイスを認証するか否かを判断する。
論文 参考訳(メタデータ) (2020-06-05T21:26:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。