論文の概要: Distributional Estimation of Data Uncertainty for Surveillance Face
Anti-spoofing
- arxiv url: http://arxiv.org/abs/2309.09485v1
- Date: Mon, 18 Sep 2023 04:48:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 15:00:39.825386
- Title: Distributional Estimation of Data Uncertainty for Surveillance Face
Anti-spoofing
- Title(参考訳): 監視面詐欺防止のためのデータ不確かさの分布推定
- Authors: Mouxiao Huang
- Abstract要約: Face Anti-Spoofing (FAS)は、電話のアンロック、顔の支払い、セルフサービスセキュリティ検査など、さまざまな種類の攻撃から保護することができる。
本研究では、従来のFAS点推定をデータ不確実性をモデル化して分布推定に変換する手法である分布推定(DisE)を提案する。
DisEはACERとAUCの両方で同等のパフォーマンスを達成している。
- 参考スコア(独自算出の注目度): 0.5439020425819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition systems have become increasingly vulnerable to security
threats in recent years, prompting the use of Face Anti-spoofing (FAS) to
protect against various types of attacks, such as phone unlocking, face
payment, and self-service security inspection. While FAS has demonstrated its
effectiveness in traditional settings, securing it in long-distance
surveillance scenarios presents a significant challenge. These scenarios often
feature low-quality face images, necessitating the modeling of data uncertainty
to improve stability under extreme conditions. To address this issue, this work
proposes Distributional Estimation (DisE), a method that converts traditional
FAS point estimation to distributional estimation by modeling data uncertainty
during training, including feature (mean) and uncertainty (variance). By
adjusting the learning strength of clean and noisy samples for stability and
accuracy, the learned uncertainty enhances DisE's performance. The method is
evaluated on SuHiFiMask [1], a large-scale and challenging FAS dataset in
surveillance scenarios. Results demonstrate that DisE achieves comparable
performance on both ACER and AUC metrics.
- Abstract(参考訳): 近年、顔認識システムはセキュリティの脅威に対してますます脆弱化しており、電話のアンロック、顔の支払い、セルフサービスセキュリティ検査など、さまざまな種類の攻撃から保護するためにFace Anti-Spoofing(FAS)の使用が進められている。
FASはその効果を従来の環境で実証しているが、長距離監視シナリオで確保することは大きな課題である。
これらのシナリオは、しばしば低い品質の顔画像を持ち、極端な条件下での安定性を改善するためにデータ不確実性のモデリングを必要とする。
本研究は,従来のFAS点推定を,特徴(平均)や不確実性(分散)を含むトレーニング中のデータ不確実性をモデル化して分布推定に変換する手法である分布推定(DisE)を提案する。
クリーンでノイズの多いサンプルの学習強度を安定と精度のために調整することにより,学習不確実性はdiseの性能を高める。
監視シナリオにおける大規模かつ挑戦的なFASデータセットであるSuHiFiMask [1]で評価を行った。
その結果、DisEはACERとAUCの両方で同等のパフォーマンスを達成できた。
関連論文リスト
- Confidence Aware Learning for Reliable Face Anti-spoofing [52.23271636362843]
本稿では,その能力境界を意識した信頼認識顔アンチスプーフィングモデルを提案する。
各サンプルの予測中にその信頼性を推定する。
実験の結果,提案したCA-FASは予測精度の低いサンプルを効果的に認識できることがわかった。
論文 参考訳(メタデータ) (2024-11-02T14:29:02Z) - On the Robustness of Adversarial Training Against Uncertainty Attacks [9.180552487186485]
学習問題において、手元のタスクに固有のノイズは、ある程度の不確実性なく推論する可能性を妨げている。
本研究は、敵の例、すなわち、誤分類を引き起こす注意深く摂動されたサンプルに対する防御が、より安全で信頼性の高い不確実性推定を保証していることを実証的および理論的に明らかにする。
我々は,CIFAR-10およびImageNetデータセット上で,公開ベンチマークのRobustBenchから,複数の逆ロバストモデルを評価する。
論文 参考訳(メタデータ) (2024-10-29T11:12:44Z) - Adversarial Robustness Overestimation and Instability in TRADES [4.063518154926961]
TRADES は多クラス分類タスクにおける AutoAttack テストの精度と比較して,PGD の検証精度が極めて高い場合が多い。
この矛盾は、勾配マスキングに結びつく可能性のある、これらのインスタンスに対するロバストネスのかなりの過大評価を浮き彫りにする。
論文 参考訳(メタデータ) (2024-10-10T07:32:40Z) - Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - Extreme Miscalibration and the Illusion of Adversarial Robustness [66.29268991629085]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - Continual Face Forgery Detection via Historical Distribution Preserving [88.66313037412846]
CFFD(Continuous Face Forgery Detection)に焦点をあてる。
CFFDは、以前の攻撃を忘れずに、新しい偽造攻撃から効率的に学習することを目指している。
評価実験の結果,提案手法は最先端の競合よりも優れていた。
論文 参考訳(メタデータ) (2023-08-11T16:37:31Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Confidence-Calibrated Face and Kinship Verification [8.570969129199467]
検証モデルにより、類似度スコアを任意の顔対に対する信頼スコアに変換することができる効果的な信頼度尺度を導入する。
また,実装が容易で,既存の検証モデルにも容易に適用可能な,信頼性校正アプローチであるAngular Scaling(ASC)を提案する。
我々の知識を最大限に活用するために、我々の研究は、現代の顔と親族関係の検証タスクに対する、初めての包括的信頼度校正ソリューションを提示した。
論文 参考訳(メタデータ) (2022-10-25T10:43:46Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Reliable Probabilistic Face Embeddings in the Wild [5.094757968178221]
PFE(probabilistic Face Embeddings)は、制約のないシナリオにおける顔認識性能を改善する。
PFE法は不確実性を推定するのに過信であり、大規模な顔マッチングに適用するには遅すぎる。
本稿では,PFEのロバスト性および速度を改善するために,正規化確率的顔埋め込み法を提案する。
論文 参考訳(メタデータ) (2021-02-08T09:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。