論文の概要: The MeVer DeepFake Detection Service: Lessons Learnt from Developing and
Deploying in the Wild
- arxiv url: http://arxiv.org/abs/2204.12816v1
- Date: Wed, 27 Apr 2022 10:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 14:06:31.888268
- Title: The MeVer DeepFake Detection Service: Lessons Learnt from Developing and
Deploying in the Wild
- Title(参考訳): MeVer DeepFake Detection Service: 野生でのの開発と展開から学んだ教訓
- Authors: Spyridon Baxevanakis, Giorgos Kordopatis-Zilos, Panagiotis Galopoulos,
Lazaros Apostolidis, Killian Levacher, Ipek B. Schlicht, Denis Teyssou,
Ioannis Kompatsiaris, Symeon Papadopoulos
- Abstract要約: 本稿では,画像やビデオの深層学習操作を検出するWebサービスであるMeVer DeepFakeについて紹介する。
本稿では、モデルアンサンブルスキームを含む処理パイプラインの設計と実装について述べ、透明性のためのモデルカードをサービスに提供する。
実験の結果、当社のサービスは3つのベンチマークデータセット上で堅牢に動作し、Adversarial Attacksに対して脆弱であることがわかった。
- 参考スコア(独自算出の注目度): 15.464724644718787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enabled by recent improvements in generation methodologies, DeepFakes have
become mainstream due to their increasingly better visual quality, the increase
in easy-to-use generation tools and the rapid dissemination through social
media. This fact poses a severe threat to our societies with the potential to
erode social cohesion and influence our democracies. To mitigate the threat,
numerous DeepFake detection schemes have been introduced in the literature but
very few provide a web service that can be used in the wild. In this paper, we
introduce the MeVer DeepFake detection service, a web service detecting deep
learning manipulations in images and video. We present the design and
implementation of the proposed processing pipeline that involves a model
ensemble scheme, and we endow the service with a model card for transparency.
Experimental results show that our service performs robustly on the three
benchmark datasets while being vulnerable to Adversarial Attacks. Finally, we
outline our experience and lessons learned when deploying a research system
into production in the hopes that it will be useful to other academic and
industry teams.
- Abstract(参考訳): 近年のジェネレーション手法の改善により、DeepFakesは視覚的品質の向上、使い易い生成ツールの増加、ソーシャルメディアによる急速な普及により主流になってきた。
この事実は社会に深刻な脅威をもたらし、社会の結束を弱め、民主主義に影響を及ぼす可能性がある。
この脅威を軽減するために、多くのDeepFake検出スキームが文献で紹介されているが、野生で使用可能なWebサービスを提供するものはごくわずかである。
本稿では,画像やビデオの深層学習操作を検出するWebサービスであるMeVer DeepFakeについて紹介する。
本稿では、モデルアンサンブルスキームを含む処理パイプラインの設計と実装について述べ、透明性のためのモデルカードをサービスに提供する。
実験の結果、当社のサービスは3つのベンチマークデータセット上で堅牢に動作し、Adversarial Attacksに対して脆弱であることがわかった。
最後に,研究システムを本番環境に展開する際の経験と教訓を概説し,他の学術・産業チームにとって有用であることを期待する。
関連論文リスト
- Deepfake Generation and Detection: A Benchmark and Survey [134.19054491600832]
Deepfakeは、特定の条件下で非常にリアルな顔画像やビデオを作成するための技術だ。
この調査は、ディープフェイクの発生と検出の最新の展開を包括的にレビューする。
本研究では, 顔交換, 顔再現, 話し顔生成, 顔属性編集の4つの代表的なディープフェイク分野の研究に焦点をあてる。
論文 参考訳(メタデータ) (2024-03-26T17:12:34Z) - Stepping out of Flatland: Discovering Behavior Patterns as Topological Structures in Cyber Hypergraphs [0.7835894511242797]
本稿では,ハイパーグラフとトポロジ理論に基づく新しいフレームワークを提案する。
大規模なサイバーネットワークデータセットで具体例を示す。
論文 参考訳(メタデータ) (2023-11-08T00:00:33Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Using Deep Learning to Detecting Deepfakes [0.0]
ディープフェイク(Deepfakes)とは、ある人物の顔を別のコンピュータが生成した顔に置き換えるビデオまたは画像である。
このオンライン脅威に対抗するために、研究者たちはディープフェイクを検出するモデルを開発した。
本研究では、ディープラーニングアルゴリズムを用いて、この略奪的な脅威に対処する様々なディープフェイク検出モデルについて検討する。
論文 参考訳(メタデータ) (2022-07-27T17:05:16Z) - Cross-Forgery Analysis of Vision Transformers and CNNs for Deepfake
Image Detection [11.944111906027144]
EfficientNetV2は、トレーニング方法のより良い結果を得ることがしばしばある傾向にあることを示す。
また、視覚変換器はより優れた一般化能力を示し、新しい手法で生成された画像にもより有能であることを示す。
論文 参考訳(メタデータ) (2022-06-28T08:50:22Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Deepfakes Generation and Detection: State-of-the-art, open challenges,
countermeasures, and way forward [2.15242029196761]
不正情報、リベンジポルノ、金融詐欺、詐欺、政府機能を妨害するディープフェイクを発生させることが可能である。
オーディオとビデオの両方のディープフェイクの検出と生成のアプローチをレビューする試みは行われていない。
本稿では、deepfake生成のための既存のツールと機械学習(ml)ベースのアプローチの包括的なレビューと詳細な分析を提供する。
論文 参考訳(メタデータ) (2021-02-25T18:26:50Z) - Adversarial Threats to DeepFake Detection: A Practical Perspective [12.611342984880826]
本稿では,最先端のDeepFake検出手法の脆弱性を実用的観点から検討する。
我々は、非常に現実的な攻撃シナリオを示すUniversal Adversarial Perturbationsを用いて、よりアクセスしやすい攻撃を作成する。
論文 参考訳(メタデータ) (2020-11-19T16:53:38Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。