論文の概要: Deepfake Detection using ImageNet models and Temporal Images of 468
Facial Landmarks
- arxiv url: http://arxiv.org/abs/2208.06990v1
- Date: Mon, 15 Aug 2022 03:32:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:04:48.379600
- Title: Deepfake Detection using ImageNet models and Temporal Images of 468
Facial Landmarks
- Title(参考訳): imagenetモデルによるディープフェイク検出と顔ランドマーク468の時間的画像
- Authors: Christeen T Jose
- Abstract要約: 我々は,映像のフレームにまたがる468個の顔のランドマークの移動に存在している時間的関係を空間的関係としてモデル化した。
CNNは、与えられた画像の画素間に存在する空間的関係を認識することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our results and findings on the use of temporal images
for deepfake detection. We modelled temporal relations that exist in the
movement of 468 facial landmarks across frames of a given video as spatial
relations by constructing an image (referred to as temporal image) using the
pixel values at these facial landmarks. CNNs are capable of recognizing spatial
relationships that exist between the pixels of a given image. 10 different
ImageNet models were considered for the study.
- Abstract(参考訳): 本稿では,時間的画像を用いたディープフェイク検出に関する結果と知見について述べる。
我々は、顔ランドマークの画素値を用いて画像(時間画像と呼ぶ)を構築し、所定の映像のフレームを横切る468個の顔ランドマークの動きに存在する時間関係を空間関係としてモデル化した。
CNNは、与えられた画像の画素間に存在する空間的関係を認識することができる。
調査には10種類のImageNetモデルが検討された。
関連論文リスト
- Exploring a Multimodal Fusion-based Deep Learning Network for Detecting Facial Palsy [3.2381492754749632]
本稿では,非構造化データと構造化データを用いて顔の麻痺を検知する多モード融合に基づくディープラーニングモデルを提案する。
我々のモデルはリコールスコアの減少を犠牲にして精度を77.05にわずかに改善した。
論文 参考訳(メタデータ) (2024-05-26T09:16:34Z) - DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - Evaluation of Pre-Trained CNN Models for Geographic Fake Image Detection [20.41074415307636]
我々は偽の衛星画像の出現を目撃しており、それは誤解を招く可能性があるし、国家の安全を脅かすかもしれない。
衛星画像検出のためのいくつかの畳み込みニューラルネットワーク(CNN)アーキテクチャの適合性について検討する。
この研究により、新たなベースラインの確立が可能となり、偽衛星画像検出のためのCNNベースの手法の開発に有用かもしれない。
論文 参考訳(メタデータ) (2022-10-01T20:37:24Z) - Detecting High-Quality GAN-Generated Face Images using Neural Networks [23.388645531702597]
本稿では,スペクトル帯域差を利用したGAN生成画像と実画像との区別手法を提案する。
特に,クロスバンド共起行列と空間共起行列を用いて,顔画像のデジタル保存を可能にする。
性能向上は特に重要であり、異なる後処理環境において92%以上を達成することを示す。
論文 参考訳(メタデータ) (2022-03-03T13:53:27Z) - There is a Time and Place for Reasoning Beyond the Image [63.96498435923328]
画像は人間の目へのピクセルだけでなく、他のソースからのコンテキスト情報から推論、関連付け、推論して、推論することで、より完全な画像を確立することができる。
我々は、ニューヨーク・タイムズ(NYT)から自動的に抽出された16k画像と関連するニュース、時間、位置のデータセットTARAと、WITから離れた監視対象として追加で61k例を紹介した。
我々は、最先端のジョイントモデルと人間のパフォーマンスの間に70%のギャップがあることを示し、これは、セグメントワイズ推論を用いて高レベルな視覚言語ジョイントモデルを動機づける提案モデルによってわずかに満たされている。
論文 参考訳(メタデータ) (2022-03-01T21:52:08Z) - Compositional Sketch Search [91.84489055347585]
フリーハンドスケッチを用いて画像コレクションを検索するアルゴリズムを提案する。
シーン構成全体を特定するための簡潔で直感的な表現として描画を利用する。
論文 参考訳(メタデータ) (2021-06-15T09:38:09Z) - Deep Video Inpainting Detection [95.36819088529622]
映像インペインティング検出は、映像内のインペイント領域を空間的および時間的にローカライズする。
VIDNet, Video Inpainting Detection Networkは、注意モジュールを備えた2ストリームエンコーダデコーダアーキテクチャを含む。
論文 参考訳(メタデータ) (2021-01-26T20:53:49Z) - Co-Saliency Spatio-Temporal Interaction Network for Person
Re-Identification in Videos [85.6430597108455]
本稿では,ビデオにおける人物の身元確認のためのCSTNet(Co-Saliency Spatio-Temporal Interaction Network)を提案する。
ビデオフレーム間の共通した有意な前景領域をキャプチャし、そのような領域からの空間的時間的長距離コンテキストの相互依存性を探索する。
CSTNet内の複数の空間的時間的相互作用モジュールを提案し,その特徴と空間的時間的情報相関の空間的・時間的長期的相互依存性を利用した。
論文 参考訳(メタデータ) (2020-04-10T10:23:58Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z) - Leveraging Frequency Analysis for Deep Fake Image Recognition [35.1862941141084]
ディープニューラルネットワークは驚くべきほどリアルな画像を生成することができるため、人間が実際の写真と区別するのはしばしば困難である。
これらの成果は主にGAN(Generative Adversarial Networks)によって実現されている。
本稿では、周波数空間において、GAN生成した画像は、容易に識別できる重いアーティファクトを示すことを示す。
論文 参考訳(メタデータ) (2020-03-19T11:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。