論文の概要: DefakeHop++: An Enhanced Lightweight Deepfake Detector
- arxiv url: http://arxiv.org/abs/2205.00211v1
- Date: Sat, 30 Apr 2022 08:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 15:21:39.575558
- Title: DefakeHop++: An Enhanced Lightweight Deepfake Detector
- Title(参考訳): DefakeHop++: 軽量なディープフェイク検出器
- Authors: Hong-Shuo Chen, Shuowen Hu, Suya You and C.-C. Jay Kuo
- Abstract要約: この研究でDefakeHop++と呼ばれる軽量なDeepfake検出器が提案されている。
DefakeHop++は3つの顔領域(すなわち2つの目と口)を調べ、DefakeHop++にはさらに8つの目印がある。
差別的な機能選択では、DefakeHopは教師なしのアプローチを使用し、DefakeHop++は監督を伴うより効果的なアプローチを採用する。
- 参考スコア(独自算出の注目度): 34.5249134920339
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On the basis of DefakeHop, an enhanced lightweight Deepfake detector called
DefakeHop++ is proposed in this work. The improvements lie in two areas. First,
DefakeHop examines three facial regions (i.e., two eyes and mouth) while
DefakeHop++ includes eight more landmarks for broader coverage. Second, for
discriminant features selection, DefakeHop uses an unsupervised approach while
DefakeHop++ adopts a more effective approach with supervision, called the
Discriminant Feature Test (DFT). In DefakeHop++, rich spatial and spectral
features are first derived from facial regions and landmarks automatically.
Then, DFT is used to select a subset of discriminant features for classifier
training. As compared with MobileNet v3 (a lightweight CNN model of 1.5M
parameters targeting at mobile applications), DefakeHop++ has a model of 238K
parameters, which is 16% of MobileNet v3. Furthermore, DefakeHop++ outperforms
MobileNet v3 in Deepfake image detection performance in a weakly-supervised
setting.
- Abstract(参考訳): DefakeHopをベースとして、DefakeHop++と呼ばれる軽量なDeepfake検出器が提案されている。
改善は2つの領域にある。
最初にDefakeHopは3つの顔領域(すなわち2つの目と口)を検査するが、DefakeHop++にはさらに8つの目印が含まれている。
第二に、識別機能選択では、DefakeHop++は教師なしのアプローチを使用し、DFT(Dis discriminant Feature Test)と呼ばれる、より効果的な監視アプローチを採用する。
defakehop++では、リッチな空間的およびスペクトル的特徴は、最初に顔領域とランドマークから導出される。
次に、DFTを用いて識別器訓練のための識別機能のサブセットを選択する。
MobileNet v3(モバイルアプリケーションを対象とした1.5Mパラメータの軽量CNNモデル)と比較して、DefakeHop++は238Kパラメータのモデルを持ち、MobileNet v3の16%である。
さらにDefakeHop++は、Deepfakeイメージ検出性能において、弱教師付き環境でMobileNet v3を上回っている。
関連論文リスト
- Aggregating Layers for Deepfake Detection [20.191456827448736]
ネットワークが1つのDeepfakeアルゴリズムでトレーニングされ、別のアルゴリズムで生成されたDeepfakesでテストされる場合を考える。
我々のアルゴリズムは、あるバックボーンネットワークのすべての層から抽出された特徴を集約し、偽物を検出する。
本稿では,2つの関心領域(ディープフェイク検出と合成画像検出)に対するアプローチを評価し,SOTAの結果が得られたことを確かめる。
論文 参考訳(メタデータ) (2022-10-11T14:29:47Z) - SFPN: Synthetic FPN for Object Detection [6.117917355232904]
本稿では, 軽量CNNバックホンの精度を高めるため, SFPN (Synthetic Fusion Pyramid Network) Arichtectureを提案する。
SFPNアーキテクチャは、大きなバックボーンVGG16、ResNet50、またはAPスコアに基づくMobilenetV2のような軽量のバックボーンよりも優れていた。
論文 参考訳(メタデータ) (2022-03-04T17:19:50Z) - Unsupervised Pretraining for Object Detection by Patch Reidentification [72.75287435882798]
教師なし表現学習は、オブジェクトディテクタの事前トレーニング表現で有望なパフォーマンスを実現します。
本研究では,オブジェクト検出のための簡易かつ効果的な表現学習手法であるパッチ再識別(Re-ID)を提案する。
私たちの方法は、トレーニングの反復やデータパーセンテージなど、すべての設定でCOCOの同等を大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-08T15:13:59Z) - Multi-attentional Deepfake Detection [79.80308897734491]
ディープフェイクによる顔の偽造はインターネットに広まり、深刻な社会的懸念を引き起こしている。
新たなマルチアテンテーショナルディープフェイク検出ネットワークを提案する。
具体的には,1)ネットワークを異なる局所的部分へ配置するための複数の空間的注意ヘッド,2)浅い特徴の微妙なアーティファクトをズームするテクスチャ的特徴拡張ブロック,3)低レベルなテクスチャ特徴と高レベルなセマンティクス特徴をアグリゲートする,の3つの構成要素からなる。
論文 参考訳(メタデータ) (2021-03-03T13:56:14Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - FaceHop: A Light-Weight Low-Resolution Face Gender Classification Method [31.813454614418347]
本研究では,FaceHopと呼ばれる低解像度の顔の性別分類手法を提案する。
LFW と CMU Multi-PIE データセットの322倍 32$ のグレースケールの顔画像では、FaceHop はそれぞれ 16.9K と 17.6K のモデルサイズで 94.63% と 95.12% の正確な性別分類率を達成している。
論文 参考訳(メタデータ) (2020-07-18T19:59:31Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - PointHop++: A Lightweight Learning Model on Point Sets for 3D
Classification [55.887502438160304]
ポイントホップ法は、Zhangらによって、教師なし特徴抽出を伴う3Dポイントクラウド分類のために提案された。
1)モデルパラメータ数の観点からモデルの複雑さを減らし,2)クロスエントロピー基準に基づいて自動的に識別特徴を順序付けする。
ModelNet40ベンチマークデータセットで実施した実験により、PointHop++法がディープニューラルネットワーク(DNN)ソリューションと同等に動作し、他の教師なし特徴抽出法を上回る性能を示す。
論文 参考訳(メタデータ) (2020-02-09T04:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。