論文の概要: SecureGaze: Defending Gaze Estimation Against Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2502.20306v1
- Date: Thu, 27 Feb 2025 17:33:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:57:14.867910
- Title: SecureGaze: Defending Gaze Estimation Against Backdoor Attacks
- Title(参考訳): SecureGaze: バックドア攻撃に対するゲイズ予測を守る
- Authors: Lingyu Du, Yupei Liu, Jinyuan Jia, Guohao Lan,
- Abstract要約: 視線推定モデルは、運転注意監視や人間とコンピュータの相互作用といったアプリケーションで広く利用されている。
視線推定には多くの方法が存在するが、高い性能を達成するためにデータに精通した深層学習に大きく依存している。
この依存により、実践者は、検証されていない公開データセットからトレーニングデータを収集したり、アウトソースモデルのトレーニングをしたり、事前トレーニングされたモデルに依存することを余儀なくされる。
このような攻撃では、敵はトレーニングデータを害してバックドアトリガーを注入し、バックドアの脆弱性を発生させる。
- 参考スコア(独自算出の注目度): 31.588830208249384
- License:
- Abstract: Gaze estimation models are widely used in applications such as driver attention monitoring and human-computer interaction. While many methods for gaze estimation exist, they rely heavily on data-hungry deep learning to achieve high performance. This reliance often forces practitioners to harvest training data from unverified public datasets, outsource model training, or rely on pre-trained models. However, such practices expose gaze estimation models to backdoor attacks. In such attacks, adversaries inject backdoor triggers by poisoning the training data, creating a backdoor vulnerability: the model performs normally with benign inputs, but produces manipulated gaze directions when a specific trigger is present. This compromises the security of many gaze-based applications, such as causing the model to fail in tracking the driver's attention. To date, there is no defense that addresses backdoor attacks on gaze estimation models. In response, we introduce SecureGaze, the first solution designed to protect gaze estimation models from such attacks. Unlike classification models, defending gaze estimation poses unique challenges due to its continuous output space and globally activated backdoor behavior. By identifying distinctive characteristics of backdoored gaze estimation models, we develop a novel and effective approach to reverse-engineer the trigger function for reliable backdoor detection. Extensive evaluations in both digital and physical worlds demonstrate that SecureGaze effectively counters a range of backdoor attacks and outperforms seven state-of-the-art defenses adapted from classification models.
- Abstract(参考訳): 視線推定モデルは、運転注意監視や人間とコンピュータの相互作用といったアプリケーションで広く利用されている。
視線推定には多くの方法が存在するが、高い性能を達成するためにデータ不足の深層学習に大きく依存している。
この依存により、実践者は、検証されていない公開データセットからトレーニングデータを収集したり、アウトソースモデルのトレーニングをしたり、事前トレーニングされたモデルに依存することを余儀なくされる。
しかし、そのようなプラクティスは、視線推定モデルをバックドアアタックに公開する。
このような攻撃では、敵は訓練データを害してバックドアトリガーを注入し、バックドア脆弱性を発生させる。
これは、ドライバーの注意をトラッキングする際にモデルを失敗させるなど、多くの視線ベースのアプリケーションのセキュリティを損なう。
これまでのところ、視線推定モデルに対するバックドア攻撃に対処する防御策はない。
これに対して,このような攻撃から視線推定モデルを保護するために設計された最初のソリューションであるSecureGazeを紹介する。
分類モデルとは異なり、防衛的な視線推定はその連続的な出力空間と全世界的に活性化されたバックドア行動のためにユニークな課題を生んでいる。
バックドアの視線推定モデルの特徴を同定することにより、信頼性の高いバックドア検出のためのトリガー関数をリバースエンジニアリングするための、新規で効果的なアプローチを開発する。
デジタルと物理の両方の世界における広範囲な評価は、SecureGazeがバックドア攻撃を効果的に防ぎ、分類モデルから適合した7つの最先端の防御を上回ります。
関連論文リスト
- A Backdoor Attack Scheme with Invisible Triggers Based on Model Architecture Modification [12.393139669821869]
従来のバックドア攻撃では、トレーニングデータに特定のトリガーで悪意のあるサンプルを注入する。
より高度な攻撃は、モデルのアーキテクチャを直接変更する。
本論文では、新たなバックドア攻撃方法を示す。
モデルアーキテクチャ内にバックドアを埋め込んで,目立たない,ステルス的なトリガを生成する機能を備えている。
論文 参考訳(メタデータ) (2024-12-22T07:39:43Z) - Proactive Adversarial Defense: Harnessing Prompt Tuning in Vision-Language Models to Detect Unseen Backdoored Images [0.0]
バックドア攻撃は、隠れたトリガーを入力に埋め込むことで重大な脅威となり、モデルがそれらをターゲットラベルに誤って分類する。
トレーニングと推論の両方において、未確認のバックドア画像を検出するための画期的な手法を提案する。
われわれのアプローチは、学習可能なテキストプロンプトを訓練し、クリーンな画像と隠れたバックドアトリガーを区別する。
論文 参考訳(メタデータ) (2024-12-11T19:54:14Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Attacks and Countermeasures in Natural Language Processing Models: A Comprehensive Security Review [15.179940846141873]
言語モデル(LM)は、現実世界のアプリケーションでますます人気が高まっている。
バックドア攻撃は、トリガーが存在するときに悪意のある動作が起動される深刻な脅威である。
この研究は、NLPコミュニティにバックドア攻撃と対策のタイムリーなレビューを提供することを目的としている。
論文 参考訳(メタデータ) (2023-09-12T08:48:38Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Confidence Matters: Inspecting Backdoors in Deep Neural Networks via
Distribution Transfer [27.631616436623588]
本稿では,新しい観測結果を基にしたバックドアディフェンスDTInspectorを提案する。
DTInspectorは、ほとんどの高信頼データの予測を変える可能性のあるパッチを学び、それからバックドアの存在を決定する。
論文 参考訳(メタデータ) (2022-08-13T08:16:28Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。