論文の概要: Robust Face Anti-Spoofing with Dual Probabilistic Modeling
- arxiv url: http://arxiv.org/abs/2204.12685v1
- Date: Wed, 27 Apr 2022 03:44:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 22:59:46.103562
- Title: Robust Face Anti-Spoofing with Dual Probabilistic Modeling
- Title(参考訳): Dual Probabilistic Modeling を用いたロバスト顔消毒
- Authors: Yuanhan Zhang, Yichao Wu, Zhenfei Yin, Jing Shao, Ziwei Liu
- Abstract要約: 本稿では、DPM-LQ(ラベル品質認識学習)とDPM-DQ(データ品質認識学習)という2つの専用モジュールを備えたDPM(Dual Probabilistic Modeling)という統合フレームワークを提案する。
DPM-LQは、ノイズのあるセマンティックラベルの分布に過度に適合することなく、ロバストな特徴表現を生成することができる。
DPM-DQは、その品質分布に基づいてノイズデータの予測信頼度を補正することにより、推論中のFalse Reject'およびFalse Accept'からデータノイズを除去することができる。
- 参考スコア(独自算出の注目度): 49.14353429234298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of face anti-spoofing (FAS) has witnessed great progress with the
surge of deep learning. Due to its data-driven nature, existing FAS methods are
sensitive to the noise in the dataset, which will hurdle the learning process.
However, very few works consider noise modeling in FAS. In this work, we
attempt to fill this gap by automatically addressing the noise problem from
both label and data perspectives in a probabilistic manner. Specifically, we
propose a unified framework called Dual Probabilistic Modeling (DPM), with two
dedicated modules, DPM-LQ (Label Quality aware learning) and DPM-DQ (Data
Quality aware learning). Both modules are designed based on the assumption that
data and label should form coherent probabilistic distributions. DPM-LQ is able
to produce robust feature representations without overfitting to the
distribution of noisy semantic labels. DPM-DQ can eliminate data noise from
`False Reject' and `False Accept' during inference by correcting the prediction
confidence of noisy data based on its quality distribution. Both modules can be
incorporated into existing deep networks seamlessly and efficiently.
Furthermore, we propose the generalized DPM to address the noise problem in
practical usage without the need of semantic annotations. Extensive experiments
demonstrate that this probabilistic modeling can 1) significantly improve the
accuracy, and 2) make the model robust to the noise in real-world datasets.
Without bells and whistles, our proposed DPM achieves state-of-the-art
performance on multiple standard FAS benchmarks.
- Abstract(参考訳): フェイス・アンチ・スプーフィング(FAS)の分野は、深層学習の急増とともに大きな進歩をみせた。
データ駆動性のため、既存のFASメソッドはデータセットのノイズに敏感であり、学習プロセスのハードルとなる。
しかし、FASにおけるノイズモデリングを考える研究はほとんどない。
本研究では,ラベルとデータの観点からのノイズ問題を自動的に確率論的に解決することで,このギャップを埋めようとしている。
具体的には、DPM-LQ(ラベル品質認識学習)とDPM-DQ(データ品質認識学習)という2つの専用モジュールを備えた、DPM(Dual Probabilistic Modeling)と呼ばれる統合フレームワークを提案する。
どちらのモジュールも、データとラベルがコヒーレントな確率分布を形成するべきだという仮定に基づいて設計されている。
DPM-LQは、ノイズのあるセマンティックラベルの分布に過度に適合することなく、ロバストな特徴表現を生成することができる。
DPM-DQは、その品質分布に基づいてノイズデータの予測信頼度を補正することにより、推論中に‘False Reject’や‘False Accept’からデータノイズを除去することができる。
どちらのモジュールも、シームレスかつ効率的に既存のディープネットワークに組み込むことができる。
さらに, 意味的アノテーションを必要とせず, 実用的な騒音問題に対処できる一般化dpmを提案する。
広範な実験によって この確率的モデリングが
1)精度が著しく向上し、
2) 実世界のデータセットのノイズに対してモデルを堅牢にする。
提案するdpmは,複数の標準fasベンチマークで最先端のパフォーマンスを実現する。
関連論文リスト
- SEMRes-DDPM: Residual Network Based Diffusion Modelling Applied to
Imbalanced Data [9.969882349165745]
データマイニングと機械学習の分野では、一般的に使われている分類モデルは、不均衡なデータで効果的に学習することはできない。
古典的なオーバーサンプリング手法の多くは、データのローカル情報のみに焦点を当てたSMOTE技術に基づいている。
本稿では,SEMRes-DDPMのオーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T14:01:04Z) - Learning Noise-Robust Joint Representation for Multimodal Emotion
Recognition under Realistic Incomplete Data Scenarios [0.0]
我々は,NMER という新しいノイズロス型マルチモーダル感情認識(MER)モデルを提案する。
まず、トレーニングデータにおけるノイズの種類とレベルを調整するノイズスケジューラを導入する。
次に, 可変オートエンコーダ(VAE)に基づくNMERモデルを用いて, 雑音データからロバストなマルチモーダル関節表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T10:49:02Z) - Efficient Transfer Learning in Diffusion Models via Adversarial Noise [21.609168219488982]
拡散確率モデル (DPM) は画像生成タスクにおいて大きな可能性を証明している。
GANのような以前の研究は、十分なデータで学習したトレーニング済みモデルを転送することで、限られたデータ問題に対処してきた。
限られたデータ問題に対処するために,新しいDPMに基づくトランスファー学習手法であるTANを提案する。
論文 参考訳(メタデータ) (2023-08-23T06:44:44Z) - AdjointDPM: Adjoint Sensitivity Method for Gradient Backpropagation of
Diffusion Probabilistic Models [136.58244210412352]
既存のカスタマイズ方法は、事前訓練された拡散確率モデルをユーザが提供する概念に合わせるために、複数の参照例にアクセスする必要がある。
本論文は、DPMカスタマイズの課題として、生成コンテンツ上で定義された差別化可能な指標が唯一利用可能な監督基準である場合に解決することを目的とする。
本稿では,拡散モデルから新しいサンプルを初めて生成するAdjointDPMを提案する。
次に、随伴感度法を用いて、損失の勾配をモデルのパラメータにバックプロパゲートする。
論文 参考訳(メタデータ) (2023-07-20T09:06:21Z) - ReSup: Reliable Label Noise Suppression for Facial Expression
Recognition [20.74719263734951]
本稿では、ReSupと呼ばれるより信頼性の高いノイズラベル抑圧手法を提案する。
最適な分布モデリングを実現するために、ReSupは全てのサンプルの類似度分布をモデル化する。
ノイズ決定結果の信頼性をさらに高めるため、ReSupは2つのネットワークを使ってノイズ抑制を共同で実現している。
論文 参考訳(メタデータ) (2023-05-29T06:02:06Z) - On Calibrating Diffusion Probabilistic Models [78.75538484265292]
拡散確率モデル(DPM)は様々な生成タスクにおいて有望な結果を得た。
そこで本研究では,任意の事前学習DPMを校正する簡単な方法を提案する。
キャリブレーション法は1回だけ行い, 得られたモデルをサンプリングに繰り返し使用することができる。
論文 参考訳(メタデータ) (2023-02-21T14:14:40Z) - Confidence-based Reliable Learning under Dual Noises [46.45663546457154]
ディープニューラルネットワーク(DNN)は、様々なコンピュータビジョンタスクにおいて顕著な成功を収めている。
しかし、オープンワールドから収集されたデータはノイズによって必然的に汚染され、学習されたモデルの有効性を著しく損なう可能性がある。
データノイズ下でDNNを確実に訓練する様々な試みがなされているが、ラベルに存在するノイズと画像に存在するノイズを別々に考慮している。
この作業は、ジョイント(イメージ、ラベル)ノイズの下での信頼性学習のための、最初の統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-10T07:50:34Z) - Sampling-Based Robust Control of Autonomous Systems with Non-Gaussian
Noise [59.47042225257565]
雑音分布の明示的な表現に依存しない新しい計画法を提案する。
まず、連続系を離散状態モデルに抽象化し、状態間の確率的遷移によってノイズを捕捉する。
いわゆる区間マルコフ決定過程(iMDP)の遷移確率区間におけるこれらの境界を捉える。
論文 参考訳(メタデータ) (2021-10-25T06:18:55Z) - Noise-Resistant Deep Metric Learning with Probabilistic Instance
Filtering [59.286567680389766]
ノイズラベルは現実世界のデータによく見られ、ディープニューラルネットワークの性能劣化を引き起こす。
DMLのための確率的ランク付けに基づくメモリを用いたインスタンス選択(PRISM)手法を提案する。
PRISMはラベルがクリーンである確率を計算し、潜在的にノイズの多いサンプルをフィルタリングする。
論文 参考訳(メタデータ) (2021-08-03T12:15:25Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。