論文の概要: Robust Face Anti-Spoofing with Dual Probabilistic Modeling
- arxiv url: http://arxiv.org/abs/2204.12685v1
- Date: Wed, 27 Apr 2022 03:44:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 22:59:46.103562
- Title: Robust Face Anti-Spoofing with Dual Probabilistic Modeling
- Title(参考訳): Dual Probabilistic Modeling を用いたロバスト顔消毒
- Authors: Yuanhan Zhang, Yichao Wu, Zhenfei Yin, Jing Shao, Ziwei Liu
- Abstract要約: 本稿では、DPM-LQ(ラベル品質認識学習)とDPM-DQ(データ品質認識学習)という2つの専用モジュールを備えたDPM(Dual Probabilistic Modeling)という統合フレームワークを提案する。
DPM-LQは、ノイズのあるセマンティックラベルの分布に過度に適合することなく、ロバストな特徴表現を生成することができる。
DPM-DQは、その品質分布に基づいてノイズデータの予測信頼度を補正することにより、推論中のFalse Reject'およびFalse Accept'からデータノイズを除去することができる。
- 参考スコア(独自算出の注目度): 49.14353429234298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of face anti-spoofing (FAS) has witnessed great progress with the
surge of deep learning. Due to its data-driven nature, existing FAS methods are
sensitive to the noise in the dataset, which will hurdle the learning process.
However, very few works consider noise modeling in FAS. In this work, we
attempt to fill this gap by automatically addressing the noise problem from
both label and data perspectives in a probabilistic manner. Specifically, we
propose a unified framework called Dual Probabilistic Modeling (DPM), with two
dedicated modules, DPM-LQ (Label Quality aware learning) and DPM-DQ (Data
Quality aware learning). Both modules are designed based on the assumption that
data and label should form coherent probabilistic distributions. DPM-LQ is able
to produce robust feature representations without overfitting to the
distribution of noisy semantic labels. DPM-DQ can eliminate data noise from
`False Reject' and `False Accept' during inference by correcting the prediction
confidence of noisy data based on its quality distribution. Both modules can be
incorporated into existing deep networks seamlessly and efficiently.
Furthermore, we propose the generalized DPM to address the noise problem in
practical usage without the need of semantic annotations. Extensive experiments
demonstrate that this probabilistic modeling can 1) significantly improve the
accuracy, and 2) make the model robust to the noise in real-world datasets.
Without bells and whistles, our proposed DPM achieves state-of-the-art
performance on multiple standard FAS benchmarks.
- Abstract(参考訳): フェイス・アンチ・スプーフィング(FAS)の分野は、深層学習の急増とともに大きな進歩をみせた。
データ駆動性のため、既存のFASメソッドはデータセットのノイズに敏感であり、学習プロセスのハードルとなる。
しかし、FASにおけるノイズモデリングを考える研究はほとんどない。
本研究では,ラベルとデータの観点からのノイズ問題を自動的に確率論的に解決することで,このギャップを埋めようとしている。
具体的には、DPM-LQ(ラベル品質認識学習)とDPM-DQ(データ品質認識学習)という2つの専用モジュールを備えた、DPM(Dual Probabilistic Modeling)と呼ばれる統合フレームワークを提案する。
どちらのモジュールも、データとラベルがコヒーレントな確率分布を形成するべきだという仮定に基づいて設計されている。
DPM-LQは、ノイズのあるセマンティックラベルの分布に過度に適合することなく、ロバストな特徴表現を生成することができる。
DPM-DQは、その品質分布に基づいてノイズデータの予測信頼度を補正することにより、推論中に‘False Reject’や‘False Accept’からデータノイズを除去することができる。
どちらのモジュールも、シームレスかつ効率的に既存のディープネットワークに組み込むことができる。
さらに, 意味的アノテーションを必要とせず, 実用的な騒音問題に対処できる一般化dpmを提案する。
広範な実験によって この確率的モデリングが
1)精度が著しく向上し、
2) 実世界のデータセットのノイズに対してモデルを堅牢にする。
提案するdpmは,複数の標準fasベンチマークで最先端のパフォーマンスを実現する。
関連論文リスト
- Meta-DiffuB: A Contextualized Sequence-to-Sequence Text Diffusion Model with Meta-Exploration [53.63593099509471]
本稿では,既存のS2S-拡散モデルの限界を克服するために,スケジューラ・エクスロイタS2S-拡散パラダイムを提案する。
我々はメタ探索を用いて、各文の文脈化ノイズをスケジューリングするための追加スケジューラモデルを訓練する。
我々のエクスプローラーモデルであるS2S-拡散モデルでは、スケジューラモデルによってスケジュールされたノイズを利用して更新と生成を行う。
論文 参考訳(メタデータ) (2024-10-17T04:06:02Z) - Towards a Theoretical Understanding of Memorization in Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(GenAI)の主流モデルとして採用されている。
モデル収束を前提とした条件付きおよび非条件付きDPMにおける記憶の理論的理解を提供する。
本研究では、生成されたデータに基づいて訓練された時間依存型分類器を代理条件として利用し、無条件DPMからトレーニングデータを抽出する、textbfSurrogate condItional Data extract (SIDE) という新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T13:17:06Z) - Prototype based Masked Audio Model for Self-Supervised Learning of Sound Event Detection [22.892382672888488]
半教師付きアルゴリズムはラベルのないデータから学ぶためにラベル付きデータに依存する。
SEDにおける自己教師型表現学習のためのプロトタイプベースMasked Audio Model(PMAM)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-26T09:07:20Z) - DiffImpute: Tabular Data Imputation With Denoising Diffusion Probabilistic Model [9.908561639396273]
DiffImputeという新しい拡散確率モデル(DDPM)を提案する。
既存のデータの信頼性を損なうことなく、欠落したエントリに対して信頼できる警告を生成する。
Missing Completely At Random (MCAR) と Missing At Random (MAR) の様々な設定に適用できる。
論文 参考訳(メタデータ) (2024-03-20T08:45:31Z) - Contractive Diffusion Probabilistic Models [5.217870815854702]
拡散確率モデル (DPM) は生成的モデリングにおいて有望な手法である。
我々は、DPMの設計における後方サンプリングの収縮特性を新たな基準として提案し、新しいCDPM(Contractive DPM)のクラスを導出する。
以上の結果から,CDPMは単純な変換で事前学習したDPMの重みを活用でき,再学習は不要であることが示唆された。
論文 参考訳(メタデータ) (2024-01-23T21:51:51Z) - ReSup: Reliable Label Noise Suppression for Facial Expression
Recognition [20.74719263734951]
本稿では、ReSupと呼ばれるより信頼性の高いノイズラベル抑圧手法を提案する。
最適な分布モデリングを実現するために、ReSupは全てのサンプルの類似度分布をモデル化する。
ノイズ決定結果の信頼性をさらに高めるため、ReSupは2つのネットワークを使ってノイズ抑制を共同で実現している。
論文 参考訳(メタデータ) (2023-05-29T06:02:06Z) - On Calibrating Diffusion Probabilistic Models [78.75538484265292]
拡散確率モデル(DPM)は様々な生成タスクにおいて有望な結果を得た。
そこで本研究では,任意の事前学習DPMを校正する簡単な方法を提案する。
キャリブレーション法は1回だけ行い, 得られたモデルをサンプリングに繰り返し使用することができる。
論文 参考訳(メタデータ) (2023-02-21T14:14:40Z) - Confidence-based Reliable Learning under Dual Noises [46.45663546457154]
ディープニューラルネットワーク(DNN)は、様々なコンピュータビジョンタスクにおいて顕著な成功を収めている。
しかし、オープンワールドから収集されたデータはノイズによって必然的に汚染され、学習されたモデルの有効性を著しく損なう可能性がある。
データノイズ下でDNNを確実に訓練する様々な試みがなされているが、ラベルに存在するノイズと画像に存在するノイズを別々に考慮している。
この作業は、ジョイント(イメージ、ラベル)ノイズの下での信頼性学習のための、最初の統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-10T07:50:34Z) - Noise-Resistant Deep Metric Learning with Probabilistic Instance
Filtering [59.286567680389766]
ノイズラベルは現実世界のデータによく見られ、ディープニューラルネットワークの性能劣化を引き起こす。
DMLのための確率的ランク付けに基づくメモリを用いたインスタンス選択(PRISM)手法を提案する。
PRISMはラベルがクリーンである確率を計算し、潜在的にノイズの多いサンプルをフィルタリングする。
論文 参考訳(メタデータ) (2021-08-03T12:15:25Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。