論文の概要: Identifying Physically Realizable Triggers for Backdoored Face Recognition Networks
- arxiv url: http://arxiv.org/abs/2506.19533v1
- Date: Tue, 24 Jun 2025 11:36:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.608358
- Title: Identifying Physically Realizable Triggers for Backdoored Face Recognition Networks
- Title(参考訳): バックドア顔認識ネットワークのための物理的に実現可能なトリガーの同定
- Authors: Ankita Raj, Ambar Pal, Chetan Arora,
- Abstract要約: 最近の研究では、バックドア顔認識(FR)システムが、特定のサングラスのような自然なトリガーに反応できることが示されている。
本稿では、FRネットワークが自然に実現可能なトリガによって損なわれているかどうかを検知する新しい手法を提案する。
提案手法の有効性をFRネットワークで実証し,トップ5の精度74%でトリガを識別できることを示した。
- 参考スコア(独自算出の注目度): 7.678575259856194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor attacks embed a hidden functionality into deep neural networks, causing the network to display anomalous behavior when activated by a predetermined pattern in the input Trigger, while behaving well otherwise on public test data. Recent works have shown that backdoored face recognition (FR) systems can respond to natural-looking triggers like a particular pair of sunglasses. Such attacks pose a serious threat to the applicability of FR systems in high-security applications. We propose a novel technique to (1) detect whether an FR network is compromised with a natural, physically realizable trigger, and (2) identify such triggers given a compromised network. We demonstrate the effectiveness of our methods with a compromised FR network, where we are able to identify the trigger (e.g., green sunglasses or red hat) with a top-5 accuracy of 74%, whereas a naive brute force baseline achieves 56% accuracy.
- Abstract(参考訳): バックドア攻撃は、隠れた機能をディープニューラルネットワークに埋め込むことで、入力されたTriggerの所定のパターンによってアクティベートされたときにネットワークが異常な振る舞いを見せると同時に、公開テストデータにもうまく対応している。
最近の研究では、バックドア顔認識(FR)システムが、特定のサングラスのような自然なトリガーに反応できることが示されている。
このような攻撃は、高セキュリティアプリケーションにおけるFRシステムの適用性に深刻な脅威をもたらす。
本稿では,1) FRネットワークが自然に実現可能なトリガによって損なわれているかどうかを検知し,(2) 妥協されたネットワークからそのようなトリガを識別する手法を提案する。
提案手法の有効性をFRネットワークを用いて実証し, トリガー(例えば, グリーンサングラス, レッドハット)をトップ5の精度で74%, ナイブブルート力ベースラインは56%の精度で識別できることを示した。
関連論文リスト
- Boosting Graph Robustness Against Backdoor Attacks: An Over-Similarity Perspective [5.29403129046676]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークやトランスポートネットワークなどのタスクにおいて顕著な成功を収めている。
最近の研究は、GNNのバックドア攻撃に対する脆弱性を強調し、現実世界のアプリケーションにおける信頼性に関する重大な懸念を提起している。
そこで我々は,新しいグラフバックドアディフェンス手法SimGuardを提案する。
論文 参考訳(メタデータ) (2025-02-03T11:41:42Z) - Twin Trigger Generative Networks for Backdoor Attacks against Object Detection [14.578800906364414]
オブジェクト検出器は、現実世界のアプリケーションで広く使われているが、バックドア攻撃に弱い。
バックドア攻撃に関するほとんどの研究は画像分類に焦点を合わせており、物体検出について限定的な研究がなされている。
本研究では,トレーニング中のモデルにバックドアを埋め込むための目に見えないトリガと,推論中の安定したアクティベーションのための目に見えるトリガを生成する新しいツイントリガ生成ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-23T03:46:45Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Early Detection of Network Attacks Using Deep Learning [0.0]
ネットワーク侵入検知システム(英: Network Intrusion Detection System、IDS)は、ネットワークトラフィックを観察することによって、不正かつ悪意のない行動を特定するためのツールである。
本稿では,攻撃対象のシステムにダメージを与える前に,ネットワーク攻撃を防止するために,エンド・ツー・エンドの早期侵入検知システムを提案する。
論文 参考訳(メタデータ) (2022-01-27T16:35:37Z) - Detecting Backdoors in Neural Networks Using Novel Feature-Based Anomaly
Detection [16.010654200489913]
本稿では,ニューラルネットワークのバックドア攻撃に対する新たな防御法を提案する。
バックドアネットワークの機能抽出層が新機能を組み込んでトリガーの存在を検出するという直感に基づいている。
バックドアの検出には、クリーンな検証データに基づいて訓練された2つの相乗的異常検出器を使用する。
論文 参考訳(メタデータ) (2020-11-04T20:33:51Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。