論文の概要: Deepfake Forensics Using Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2005.00229v1
- Date: Fri, 1 May 2020 05:27:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 00:04:39.886601
- Title: Deepfake Forensics Using Recurrent Neural Networks
- Title(参考訳): リカレントニューラルネットワークを用いたディープフェイク鑑定
- Authors: Rahul U, Ragul M, Raja Vignesh K, Tejeswinee K
- Abstract要約: 本稿では,ディープフェイク記録を自動認識する一過性のマインドフルパイプラインを提案する。
我々のフレームワークは、輪郭レベルのハイライトを取り除くために畳み込みニューラルネットワーク(CNN)を利用している。
我々は,異なるビデオサイトから収集した大量のディープフェイク録音に対して,我々の手法を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As of late an AI based free programming device has made it simple to make
authentic face swaps in recordings that leaves barely any hints of control, in
what are known as "deepfake" recordings. Situations where these genuine istic
counterfeit recordings are utilized to make political pain, extort somebody or
phony fear based oppression occasions are effectively imagined. This paper
proposes a transient mindful pipeline to automat-ically recognize deepfake
recordings. Our framework utilizes a convolutional neural system (CNN) to
remove outline level highlights. These highlights are then used to prepare a
repetitive neural net-work (RNN) that figures out how to characterize if a
video has been sub-ject to control or not. We assess our technique against a
huge arrangement of deepfake recordings gathered from different video sites. We
show how our framework can accomplish aggressive outcomes in this assignment
while utilizing a basic design.
- Abstract(参考訳): 最近になって、AIベースの無料プログラムデバイスは、記録にほとんど制御のヒントを残しない、真正な顔スワップを、"deepfake"と呼ばれる記録で簡単に作成できるようになった。
これらの真真正な偽造記録を利用して政治的苦痛を生じさせ、誰かを歪ませたり、恐怖に基づく弾圧事件を効果的に想像する。
本稿では,ディープフェイク記録を自動認識する過渡マインドフルパイプラインを提案する。
本フレームワークは畳み込みニューラルネットワーク(cnn)を用いてアウトラインレベルのハイライトを除去する。
これらのハイライトは、ビデオが制御するためのサブオブジェクトであったかどうかを識別する繰り返しニューラルネットワーク(RNN)を作成するために使用される。
我々は,異なるビデオサイトから収集した大量のディープフェイク録音に対して,我々の手法を評価する。
我々は,この課題において,我々のフレームワークが基本設計を生かしながら積極的成果を達成できることを示す。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Explainable Deepfake Video Detection using Convolutional Neural Network and CapsuleNet [0.0]
ディープフェイク技術は、実際の参加に関係なく、個人をデジタルメディアにシームレスに挿入する。
主要なディープフェイク生成アルゴリズムであるGANは、リアルなイメージやビデオを作成するために機械学習を使用している。
我々は、説明可能なAIを通じてモデルの意思決定プロセスを解明し、透明な人間とAIの関係を育むことを目指している。
論文 参考訳(メタデータ) (2024-04-19T12:21:27Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Self-Denoising Neural Networks for Few Shot Learning [66.38505903102373]
既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
論文 参考訳(メタデータ) (2021-10-26T03:28:36Z) - Controlled Caption Generation for Images Through Adversarial Attacks [85.66266989600572]
画像特徴抽出には畳み込みニューラルネットワーク(CNN)、キャプション生成にはリカレントニューラルネットワーク(RNN)が使用される。
特に、その後の再帰的ネットワークに供給される視覚エンコーダの隠蔽層に対する攻撃について検討する。
本稿では、CNNの内部表現を模倣したニューラルネットワークキャプションの逆例を作成するためのGANベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-07T07:22:41Z) - Deep Fake Detection: Survey of Facial Manipulation Detection Solutions [0.0]
我々は、アートニューラルネットワーク(MesoNet、ResNet-50、VGG-19、Xception Net)のいくつかの状態を分析し、それらを互いに比較する。
オンラインソーシャルメディアプラットフォームにデプロイされるリアルタイムのディープフェイク検出など,さまざまなシナリオに対する最適なソリューションを見つけました。
論文 参考訳(メタデータ) (2021-06-23T18:08:07Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Deepfake Video Forensics based on Transfer Learning [0.0]
ディープフェイク」は、人間が本物のものと区別できない偽のイメージやビデオを作ることができる。
本稿では,各ディープフェイク映像フレームの特徴を把握するために,画像分類モデルを再学習する方法について述べる。
Deepfakeのビデオをチェックすると、87%以上の精度が得られた。
論文 参考訳(メタデータ) (2020-04-29T13:21:28Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z) - Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to
Adversarial Examples [23.695497512694068]
ビデオ操作技術の最近の進歩は、偽ビデオの生成をこれまで以上にアクセスしやすくしている。
操作されたビデオは偽情報を燃やし、メディアの信頼を減らすことができる。
近年開発されたDeepfake検出方法は、AI生成のフェイクビデオと実際のビデオとを区別するために、ディープニューラルネットワーク(DNN)に依存している。
論文 参考訳(メタデータ) (2020-02-09T07:10:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。