論文の概要: Unmasking Puppeteers: Leveraging Biometric Leakage to Disarm Impersonation in AI-based Videoconferencing
- arxiv url: http://arxiv.org/abs/2510.03548v1
- Date: Fri, 03 Oct 2025 22:37:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.10651
- Title: Unmasking Puppeteers: Leveraging Biometric Leakage to Disarm Impersonation in AI-based Videoconferencing
- Title(参考訳): Puppeteersをアンマキングする - AIベースのビデオ会議におけるバイオメトリックリークの活用
- Authors: Danial Samadi Vahdati, Tai Duc Nguyen, Ekta Prashnani, Koki Nagano, David Luebke, Orazio Gallo, Matthew Stamm,
- Abstract要約: AIベースのトーキングヘッドビデオ会議システムは、コンパクトなポーズ表現ラテントを送信し、受信機でRGBを再合成することで帯域幅を削減する。
この潜伏者は操ることができ、攻撃者はリアルタイムで被害者の好奇心を乗っ取ることができる。
再建されたRGBビデオを見ることなく,最初の生体情報漏洩防御システムを導入する。
- 参考スコア(独自算出の注目度): 13.359027851861677
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI-based talking-head videoconferencing systems reduce bandwidth by sending a compact pose-expression latent and re-synthesizing RGB at the receiver, but this latent can be puppeteered, letting an attacker hijack a victim's likeness in real time. Because every frame is synthetic, deepfake and synthetic video detectors fail outright. To address this security problem, we exploit a key observation: the pose-expression latent inherently contains biometric information of the driving identity. Therefore, we introduce the first biometric leakage defense without ever looking at the reconstructed RGB video: a pose-conditioned, large-margin contrastive encoder that isolates persistent identity cues inside the transmitted latent while cancelling transient pose and expression. A simple cosine test on this disentangled embedding flags illicit identity swaps as the video is rendered. Our experiments on multiple talking-head generation models show that our method consistently outperforms existing puppeteering defenses, operates in real-time, and shows strong generalization to out-of-distribution scenarios.
- Abstract(参考訳): AIベースのトーキングヘッドビデオ会議システムは、コンパクトなポーズ表現ラテントを送信し、受信側でRGBを再合成することで帯域幅を削減するが、このラテントを操ることができ、攻撃者が被害者の類似性をリアルタイムでハイジャックすることができる。
あらゆるフレームが合成されているので、ディープフェイクと合成ビデオ検出器はすぐに失敗する。
このセキュリティ問題に対処するために、我々はキーとなる観察を生かした: ポーズ・エクスプレッション・ラテントは本質的に、駆動アイデンティティの生体情報を含んでいる。
そこで,本研究では,一過性のポーズと表現をキャンセルしながら,送信された潜伏者の内部に永続的なアイデンティティーキューを分離する,ポーズ条件の大きいコントラストエンコーダであるRGBビデオの再構成を伴わずに,最初のバイオメトリックリークディフェンスを導入する。
この混乱した埋め込みフラグの単純なコサインテストでは、ビデオがレンダリングされるときにアイデンティティスワップが不正に表示される。
複数の音声頭生成モデルに対する実験により,本手法は既存の操り人形の防御を常に上回り,リアルタイムに動作し,配布外シナリオへの強い一般化を示す。
関連論文リスト
- Proactive Disentangled Modeling of Trigger-Object Pairings for Backdoor Defense [0.0]
ディープニューラルネットワーク(DNN)とジェネレーティブAI(GenAI)は、バックドア攻撃に対してますます脆弱になっている。
本稿では、構造的ゆがみを利用したプロアクティブなフレームワークであるDBOMを紹介し、見えないバックドアの脅威を識別し、中和する。
そこで本研究では,DBOMが下流トレーニングに先立って有毒な画像を確実に検出し,トレーニングパイプラインの安全性を著しく向上することを示す。
論文 参考訳(メタデータ) (2025-08-03T21:58:15Z) - DAVID-XR1: Detecting AI-Generated Videos with Explainable Reasoning [58.70446237944036]
DAVID-Xは、AI生成ビデオに詳細な欠陥レベル、時間空間アノテーションと有理書を組み合わせた最初のデータセットである。
DAVID-XR1は、視覚的推論の解釈可能な連鎖を提供するために設計されたビデオ言語モデルである。
以上の結果から,AI生成ビデオコンテンツの信頼性確認のための説明可能な検出手法が期待できることを示す。
論文 参考訳(メタデータ) (2025-06-13T13:39:53Z) - Let the Noise Speak: Harnessing Noise for a Unified Defense Against Adversarial and Backdoor Attacks [31.291700348439175]
機械学習に対する悪意のあるデータ操作攻撃は、安全クリティカルなアプリケーションにおける信頼性を損なう。
再建型侵入検知システムであるNoiSecを提案する。
NoiSecは、テスト入力からノイズを取り除き、ノイズから基礎となる特徴を抽出し、それらを活用して、システマティックな悪意のある操作を認識する。
論文 参考訳(メタデータ) (2024-06-18T21:44:51Z) - Adversarial Self-Attack Defense and Spatial-Temporal Relation Mining for
Visible-Infrared Video Person Re-Identification [24.9205771457704]
本稿では,新しい視点,すなわち対人自己防衛と時空間的関係のマイニングから,新しい可視赤外ビデオパーソン re-ID 手法を提案する。
提案手法は,大規模なクロスモダリティビデオデータセットにおいて魅力的な性能を示す。
論文 参考訳(メタデータ) (2023-07-08T05:03:10Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Over-the-Air Adversarial Flickering Attacks against Video Recognition
Networks [54.82488484053263]
ビデオ分類のためのディープニューラルネットワークは、敵の操作を受けることができる。
本稿では,フリックング時間摂動を導入することで,ビデオ分類器を騙す操作手法を提案する。
攻撃はいくつかの標的モデルに実装され、攻撃の伝達性が実証された。
論文 参考訳(メタデータ) (2020-02-12T17:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。