論文の概要: Identity Deepfake Threats to Biometric Authentication Systems: Public and Expert Perspectives
- arxiv url: http://arxiv.org/abs/2506.06825v1
- Date: Sat, 07 Jun 2025 15:02:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.502017
- Title: Identity Deepfake Threats to Biometric Authentication Systems: Public and Expert Perspectives
- Title(参考訳): バイオメトリック認証システムに対するアイデンティティ・ディープフェイクの脅威:公衆および専門家の視点
- Authors: Shijing He, Yaxiong Lei, Zihan Zhang, Yuzhou Sun, Shujun Li, Chi Zhang, Juan Ye,
- Abstract要約: 生成AI(Gen-AI)のディープフェイクは、バイオメトリック認証に対して急速に進化する脅威となる。
専門家は、顔や音声認識などの静的なモダリティの偽造について、重大な懸念を表明している。
本稿では、悪意あるアクターが生体認証システムに対して使用する特定の攻撃ベクトルをマッピングする新しいDeepfake Kill Chainモデルを提案する。
- 参考スコア(独自算出の注目度): 18.51811906909478
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative AI (Gen-AI) deepfakes pose a rapidly evolving threat to biometric authentication, yet a significant gap exists between expert understanding of these risks and public perception. This disconnection creates critical vulnerabilities in systems trusted by millions. To bridge this gap, we conducted a comprehensive mixed-method study, surveying 408 professionals across key sectors and conducting in-depth interviews with 37 participants (25 experts, 12 general public [non-experts]). Our findings reveal a paradox: while the public increasingly relies on biometrics for convenience, experts express grave concerns about the spoofing of static modalities like face and voice recognition. We found significant demographic and sector-specific divides in awareness and trust, with finance professionals, for example, showing heightened skepticism. To systematically analyze these threats, we introduce a novel Deepfake Kill Chain model, adapted from Hutchins et al.'s cybersecurity frameworks to map the specific attack vectors used by malicious actors against biometric systems. Based on this model and our empirical findings, we propose a tri-layer mitigation framework that prioritizes dynamic biometric signals (e.g., eye movements), robust privacy-preserving data governance, and targeted educational initiatives. This work provides the first empirically grounded roadmap for defending against AI-generated identity threats by aligning technical safeguards with human-centered insights.
- Abstract(参考訳): ジェネレーティブAI(Gen-AI)のディープフェイクは、バイオメトリック認証に対する急速に進化する脅威であるが、これらのリスクに対する専門家の理解と公衆の認識との間には大きなギャップがある。
この切断は、数百万人が信頼するシステムに重大な脆弱性を生じさせる。
このギャップを埋めるため,重要分野の408人を調査し,37名(専門家25名,一般人12名)を対象に詳細なインタビューを行った。
便宜上、一般市民はバイオメトリックスに頼っているが、専門家は顔や音声認識などの静的なモダリティの偽造について懸念を表明している。
例えば、金融の専門家は、懐疑主義の高まりを見せた。
これらの脅威を体系的に分析するために、Hutchinsらによるサイバーセキュリティフレームワークを応用した新しいDeepfake Kill Chainモデルを導入し、悪意あるアクターが生体認証システムに対して使用する特定の攻撃ベクトルをマッピングする。
このモデルと経験的知見に基づいて、動的生体情報(眼球運動など)の優先順位付け、堅牢なプライバシー保護データガバナンス、対象とする教育イニシアチブを優先する3層緩和フレームワークを提案する。
この作業は、技術的保護と人間中心の洞察を整合させることによって、AIが生成するアイデンティティの脅威を防御するための、実証的に確立された最初のロードマップを提供する。
関連論文リスト
- Real-Time Detection of Insider Threats Using Behavioral Analytics and Deep Evidential Clustering [0.0]
本稿では,行動分析と深層的クラスタリングを組み合わせた,インサイダー脅威をリアルタイムに検出するフレームワークを提案する。
本システムは,ユーザの行動を捉え,分析し,文脈に富んだ行動特徴を適用し,潜在的な脅威を分類する。
我々は,CERTやTWOSなどのベンチマークインサイダー脅威データセットについて,平均検出精度94.7%,偽陽性率38%を従来のクラスタリング手法と比較し評価した。
論文 参考訳(メタデータ) (2025-05-21T11:21:33Z) - Rethinking the Threat and Accessibility of Adversarial Attacks against Face Recognition Systems [13.830575255066773]
顔認識パイプラインは、信頼、公平、責任あるAIアプリケーションにおいてミッションクリティカルなシステムに広くデプロイされている。
敵の攻撃の出現は、認識パイプライン全体のセキュリティを脅かしている。
我々は,ブラックボックスの顔認識パイプラインに対して,AdvColorという,効果的かつ容易に起動可能な物理的敵攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-11T13:58:09Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - Eroding Trust In Aerial Imagery: Comprehensive Analysis and Evaluation
Of Adversarial Attacks In Geospatial Systems [24.953306643091484]
地理空間システムにおける敵攻撃の信頼性を低下させる方法を示す。
高品質なSpaceNetデータセットを用いたリモートセンシングシステムに対する脅威を実証的に示す。
論文 参考訳(メタデータ) (2023-12-12T16:05:12Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Differential Anomaly Detection for Facial Images [15.54185745912878]
アイデンティティ攻撃は、不正アクセスと偽情報の拡散に使用できるため、セキュリティ上の大きな脅威となる。
同一性攻撃を検出するほとんどのアルゴリズムは、訓練時に未知の攻撃タイプに悪影響を及ぼす。
本稿では,まず画像から深層面の埋め込みを抽出する差動異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-07T13:45:13Z) - Biometrics: Trust, but Verify [49.9641823975828]
バイオメトリック認識は、世界中のさまざまなアプリケーションに爆発しました。
生体認証システムの様々なサブモジュールに関する多くの顕著な問題と懸念があります。
論文 参考訳(メタデータ) (2021-05-14T03:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。