論文の概要: Detecting Deepfakes Without Seeing Any
- arxiv url: http://arxiv.org/abs/2311.01458v1
- Date: Thu, 2 Nov 2023 17:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 12:10:54.862813
- Title: Detecting Deepfakes Without Seeing Any
- Title(参考訳): 何も見ずにディープフェイクを検出する
- Authors: Tal Reiss, Bar Cavia, Yedid Hoshen
- Abstract要約: ファクトチェック」は、偽ニュース検知からゼロデイディープフェイク攻撃を検出するために適応される。
FACTORは、ディープフェイクの事実チェックのレシピで、重要な攻撃設定でそのパワーを実証する。
トレーニング不要で、既製の機能のみに依存しており、実装が非常に簡単で、ディープフェイクは見当たらない。
- 参考スコア(独自算出の注目度): 43.113936505905336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake attacks, malicious manipulation of media containing people, are a
serious concern for society. Conventional deepfake detection methods train
supervised classifiers to distinguish real media from previously encountered
deepfakes. Such techniques can only detect deepfakes similar to those
previously seen, but not zero-day (previously unseen) attack types. As current
deepfake generation techniques are changing at a breathtaking pace, new attack
types are proposed frequently, making this a major issue. Our main observations
are that: i) in many effective deepfake attacks, the fake media must be
accompanied by false facts i.e. claims about the identity, speech, motion, or
appearance of the person. For instance, when impersonating Obama, the attacker
explicitly or implicitly claims that the fake media show Obama; ii) current
generative techniques cannot perfectly synthesize the false facts claimed by
the attacker. We therefore introduce the concept of "fact checking", adapted
from fake news detection, for detecting zero-day deepfake attacks. Fact
checking verifies that the claimed facts (e.g. identity is Obama), agree with
the observed media (e.g. is the face really Obama's?), and thus can
differentiate between real and fake media. Consequently, we introduce FACTOR, a
practical recipe for deepfake fact checking and demonstrate its power in
critical attack settings: face swapping and audio-visual synthesis. Although it
is training-free, relies exclusively on off-the-shelf features, is very easy to
implement, and does not see any deepfakes, it achieves better than
state-of-the-art accuracy.
- Abstract(参考訳): ディープフェイク攻撃、人を含むメディアの悪意ある操作は、社会にとって深刻な懸念である。
従来のディープフェイク検出法は、以前に遭遇したディープフェイクと実際のメディアを区別するために教師付き分類器を訓練する。
このようなテクニックは、以前見たようなディープフェイクしか検出できないが、ゼロデイ(以前は見えなかった)攻撃タイプは検出できない。
現在のディープフェイク生成技術は呼吸速度で変化しているため、新たな攻撃タイプが頻繁に提案されており、これが大きな問題となっている。
私たちの主な観察は
一 多くの効果的なディープフェイク攻撃において、偽のメディアは、その人物の身元、発言、運動又は外観に関する虚偽の事実を伴わなければならない。
例えば、オバマを偽装すると、攻撃者は明示的にまたは暗黙的に、偽のメディアがオバマを見せると主張している。
二 現在の生成技術は、攻撃者が主張する虚偽事実を完全に合成することはできない。
そこで我々は,ゼロデイディープフェイク攻撃の検出に偽ニュース検出を応用した「ファクトチェック」の概念を導入する。
事実チェックは、主張された事実(例えば、アイデンティティはオバマ)が観察されたメディアと一致していることを検証する(例えば、顔は本当にオバマのものなのか?
その結果,顔交換や音声視覚合成といった重要な攻撃環境において,ファクトチェックの実践的手法であるFACTORを導入し,その能力を実証した。
トレーニングフリーであり、既製の機能のみに依存しており、実装が非常に簡単であり、ディープフェイクは見られないが、最先端の精度よりも優れている。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Shaking the Fake: Detecting Deepfake Videos in Real Time via Active Probes [3.6308756891251392]
生成AIの一種であるリアルタイムディープフェイク(Real-time Deepfake)は、ビデオ内の既存のコンテンツ(例えば、顔を別のものと交換する)を「生成する」ことができる。
金融詐欺や政治的誤報など、悪意ある目的のためにディープフェイクビデオを作るのに誤用されている。
本研究では,物理干渉に適応できないディープフェイクモデルを利用した新しいリアルタイムディープフェイク検出手法であるSFakeを提案する。
論文 参考訳(メタデータ) (2024-09-17T04:58:30Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Recent Advancements In The Field Of Deepfake Detection [0.0]
ディープフェイク(英: Deepfake)とは、画像がデジタルに変更されたり、あるいは部分的に他の誰かの画像に置き換えられた人物の写真またはビデオである。
ディープフェイクは様々な問題を引き起こす可能性があり、しばしば悪意を持って使用される。
本研究の目的は, ディープフェイク検出の分野での様々な手法と進歩を調査し, 分析することである。
論文 参考訳(メタデータ) (2023-08-10T13:24:27Z) - Attacker Attribution of Audio Deepfakes [5.070542698701158]
ディープフェイクは、しばしば悪意のある意図で考案された合成メディアである。
最近の研究は、音声が本物か偽物かを予測するディープフェイク検出に限られている。
これは、帰属(誰が偽物を作ったのか?)がより大きな防衛戦略の重要な構成要素であるという事実にもかかわらずである。
論文 参考訳(メタデータ) (2022-03-28T09:25:31Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。