論文の概要: Grains of Saliency: Optimizing Saliency-based Training of Biometric Attack Detection Models
- arxiv url: http://arxiv.org/abs/2405.00650v1
- Date: Wed, 1 May 2024 17:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 14:57:49.269187
- Title: Grains of Saliency: Optimizing Saliency-based Training of Biometric Attack Detection Models
- Title(参考訳): 塩分濃度:バイオメトリック検出モデルによる塩分濃度に基づくトレーニングの最適化
- Authors: Colton R. Crum, Samuel Webster, Adam Czajka,
- Abstract要約: 人間の視覚的サリエンシは、注意機構、強化されたトレーニングサンプル、または損失関数の人間の知覚関連コンポーネントを通じてモデルトレーニングに統合することができる。
彼らの成功にもかかわらず、しかし一見無視されているように思われるが、サリエンスベースのトレーニングの側面は、サリエンスグラニュリティのレベルである。
本稿では, 簡易かつ効果的な塩分後処理技術を用いて, PADと合成顔検出の一般化能力を向上できることを実証する。
- 参考スコア(独自算出の注目度): 4.215251065887862
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Incorporating human-perceptual intelligence into model training has shown to increase the generalization capability of models in several difficult biometric tasks, such as presentation attack detection (PAD) and detection of synthetic samples. After the initial collection phase, human visual saliency (e.g., eye-tracking data, or handwritten annotations) can be integrated into model training through attention mechanisms, augmented training samples, or through human perception-related components of loss functions. Despite their successes, a vital, but seemingly neglected, aspect of any saliency-based training is the level of salience granularity (e.g., bounding boxes, single saliency maps, or saliency aggregated from multiple subjects) necessary to find a balance between reaping the full benefits of human saliency and the cost of its collection. In this paper, we explore several different levels of salience granularity and demonstrate that increased generalization capabilities of PAD and synthetic face detection can be achieved by using simple yet effective saliency post-processing techniques across several different CNNs.
- Abstract(参考訳): モデルトレーニングに人間の知覚知能を組み込むことにより、プレゼンテーションアタック検出(PAD)や合成サンプルの検出など、いくつかの難しいバイオメトリックタスクにおけるモデルの一般化能力を高めることが示されている。
最初の収集フェーズの後、人間の視覚的サリエンシ(例えば、視線追跡データ、手書きアノテーション)は、注意機構、強化されたトレーニングサンプル、または損失関数の人間の知覚関連コンポーネントを介してモデルトレーニングに統合することができる。
彼らの成功にもかかわらず、しかし一見無視されているように思われるが、サリエンシに基づくトレーニングの側面は、人間のサリエンシの全利益とコレクションのコストのバランスを見つけるのに必要なサリエンシの粒度のレベル(例えば、バウンディングボックス、単一のサリエンシマップ、または複数の主題から集約されたサリエンシマップ)である。
そこで本研究では,PADと合成顔検出の一般化能力の向上を,複数の異なるCNNにまたがって,単純かつ効果的にサリエンス後処理技術を用いて実現できることを実証する。
関連論文リスト
- Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Beyond Multiple Instance Learning: Full Resolution All-In-Memory End-To-End Pathology Slide Modeling [1.063200750366449]
本稿では,タイルエンコーダとスライドアグリゲータを完全メモリで,エンド・ツー・エンドを高解像度で共同で学習する手法を提案する。
計算コストは高いが、詳細な定量的検証は、病理基盤モデルの大規模事前学習と微調整を約束することを示している。
論文 参考訳(メタデータ) (2024-03-07T19:28:58Z) - MENTOR: Human Perception-Guided Pretraining for Increased Generalization [5.596752018167751]
MENTOR (huMan pErceptioN-guided preTraining fOr increased geneRalization) を紹介する。
我々は、クラスラベルを使わずに、入力された画像からヒトの唾液マップを学習するためにオートエンコーダを訓練する。
我々は、デコーダ部分を取り除き、エンコーダの上に分類層を追加し、従来の新しいモデルを微調整する。
論文 参考訳(メタデータ) (2023-10-30T13:50:44Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Teaching AI to Teach: Leveraging Limited Human Salience Data Into
Unlimited Saliency-Based Training [6.038173052593495]
教師モデルのサリエンシマップを用いて、付加的なデータに注釈を付けるために、「教師」モデル(少量の人間注記データに基づいて訓練された)を用いる。
次に、"学生"モデルは、大量の注釈付きトレーニングデータを使用して訓練される。
教員-学生の訓練パラダイムによって達成される正確さを,(1)利用可能なすべての人的サリエンスアノテーションを用いたトレーニング,(2)人的サリエンスアノテーションを使わずに利用可能なすべてのトレーニングデータを用いたトレーニングと比較した。
論文 参考訳(メタデータ) (2023-06-08T19:55:44Z) - Domain Generalization via Ensemble Stacking for Face Presentation Attack
Detection [4.61143637299349]
顔提示攻撃検出(PAD)は、偽造攻撃に対する顔認識システムを保護する上で重要な役割を担っている。
本研究では,合成データ生成と深層アンサンブル学習を組み合わせた包括的ソリューションを提案する。
4つのデータセットに対する実験結果は、3つのベンチマークデータセット上でのHTER(low half total error rate)を示す。
論文 参考訳(メタデータ) (2023-01-05T16:44:36Z) - CYBORG: Blending Human Saliency Into the Loss Improves Deep Learning [5.092711491848192]
本稿では,脳の一般性を高めるための初となるトレーニング戦略を提案する。
新しいトレーニングアプローチでは、人間の注釈付き唾液マップをCYBORG損失関数に組み込む。
合成顔検出作業の結果,CYBORG損失は,GAN(Generative Adversarial Networks)6つの顔画像から生成した複数の分類ネットワークアーキテクチャから生成した未知のサンプルに対して,顕著な性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2021-12-01T18:04:15Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。