論文の概要: Vulnerability of Appearance-based Gaze Estimation
- arxiv url: http://arxiv.org/abs/2103.13134v1
- Date: Wed, 24 Mar 2021 12:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:57:56.238255
- Title: Vulnerability of Appearance-based Gaze Estimation
- Title(参考訳): 外観に基づく視線推定の脆弱性
- Authors: Mingjie Xu, Haofei Wang, Yunfei Liu, Feng Lu
- Abstract要約: 外観に基づく視線推定は深層学習による大幅な改善を達成した。
本稿では,外観に基づく視線推定の脆弱性について検討する。
そこで,CA-Netは,4つの人気視線推定ネットワークにおいて,攻撃に対する優れた性能を示すことを示す。
- 参考スコア(独自算出の注目度): 16.0559382707645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Appearance-based gaze estimation has achieved significant improvement by
using deep learning. However, many deep learning-based methods suffer from the
vulnerability property, i.e., perturbing the raw image using noise confuses the
gaze estimation models. Although the perturbed image visually looks similar to
the original image, the gaze estimation models output the wrong gaze direction.
In this paper, we investigate the vulnerability of appearance-based gaze
estimation. To our knowledge, this is the first time that the vulnerability of
gaze estimation to be found. We systematically characterized the vulnerability
property from multiple aspects, the pixel-based adversarial attack, the
patch-based adversarial attack and the defense strategy. Our experimental
results demonstrate that the CA-Net shows superior performance against attack
among the four popular appearance-based gaze estimation networks, Full-Face,
Gaze-Net, CA-Net and RT-GENE. This study draws the attention of researchers in
the appearance-based gaze estimation community to defense from adversarial
attacks.
- Abstract(参考訳): 外観に基づく視線推定はディープラーニングを用いて大幅に改善されている。
しかし、多くの深層学習に基づく手法は脆弱性特性、すなわちノイズを用いた生画像の摂動に悩まされ、視線推定モデルが混乱する。
摂動画像は元の画像と視覚的に似ているが、視線推定モデルは間違った視線方向を出力する。
本稿では,外観に基づく視線推定の脆弱性について検討する。
我々の知る限りでは、視線推定の脆弱性が見つかったのはこれが初めてである。
我々は,複数の側面,画素ベースの対向攻撃,パッチベースの対向攻撃,防衛戦略から,脆弱性特性を体系的に特徴づけた。
実験の結果,CA-Netは外見に基づく視線推定ネットワークであるFull-Face, Gaze-Net, CA-Net, RT-GENEにおいて,攻撃に対する優れた性能を示すことがわかった。
本研究では,外見に基づく視線推定コミュニティの研究者の注意を敵攻撃からの防御に向ける。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Gazing Into Missteps: Leveraging Eye-Gaze for Unsupervised Mistake Detection in Egocentric Videos of Skilled Human Activities [25.049754180292034]
我々は、視線信号の解析を通して、自我中心ビデオにおける教師なし誤り検出の課題に対処する。
眼球運動が被写体操作活動に密接に従うという観察に基づいて,視線信号が誤検出をどの程度支援できるかを評価する。
予測された視線軌道と観測された視線軌道の矛盾は、誤りを特定する指標として機能する。
論文 参考訳(メタデータ) (2024-06-12T16:29:45Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Semi-supervised Contrastive Regression for Estimation of Eye Gaze [0.609170287691728]
本稿では、視線方向推定のための半教師付きコントラスト学習フレームワークを開発する。
小さなラベル付きガゼデータセットにより、このフレームワークは、目に見えない顔画像であっても、一般化されたソリューションを見つけることができる。
コントラスト回帰フレームワークは, 視線推定に用いられているいくつかの手法と比較して, 優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-05T04:11:38Z) - Contrastive Weighted Learning for Near-Infrared Gaze Estimation [0.228438857884398]
コントラスト学習を用いた近赤外画像による視線推定のための新しいフレームワークであるGazeCWLを提案する。
我々のモデルは、赤外線画像に基づく視線推定において、以前の領域一般化モデルよりも優れている。
論文 参考訳(メタデータ) (2022-11-06T10:03:23Z) - Jitter Does Matter: Adapting Gaze Estimation to New Domains [12.482427155726413]
本稿では、視線領域適応タスクの分析と最適化に、視線ジッタを活用することを提案する。
高周波成分(HFC)がジッタに繋がる重要な因子であることがわかった。
我々は、オリジナルのデータと摂動データの間に類似した表現を得るようモデルに促すために、対照的な学習を採用する。
論文 参考訳(メタデータ) (2022-10-05T08:20:41Z) - LatentGaze: Cross-Domain Gaze Estimation through Gaze-Aware Analytic
Latent Code Manipulation [0.0]
本稿では,データ駆動型手法を応用した視線認識型解析操作手法を提案する。
GANベースのエンコーダジェネレータプロセスを利用することで、入力画像がターゲット領域からソース領域イメージにシフトし、視線推定器が十分に認識できる。
論文 参考訳(メタデータ) (2022-09-21T08:05:53Z) - Defending From Physically-Realizable Adversarial Attacks Through
Internal Over-Activation Analysis [61.68061613161187]
Z-Maskは、敵の攻撃に対する畳み込みネットワークの堅牢性を改善するための堅牢で効果的な戦略である。
提示されたディフェンスは、入力画像中の対向対象に対応する画素を検出し、隠蔽するために、内部ネットワーク機能で実行される特定のZスコア解析に依存する。
追加の実験では、Z-Maskは防衛対応攻撃に対して堅牢であることが示された。
論文 参考訳(メタデータ) (2022-03-14T17:41:46Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。