論文の概要: More than just an auxiliary loss: Anti-spoofing Backbone Training via
Adversarial Pseudo-depth Generation
- arxiv url: http://arxiv.org/abs/2101.00200v2
- Date: Fri, 19 Mar 2021 04:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 11:53:05.545069
- Title: More than just an auxiliary loss: Anti-spoofing Backbone Training via
Adversarial Pseudo-depth Generation
- Title(参考訳): 補助的損失以上のもの:逆行性擬似深度世代による抗スポーフィングバックボーントレーニング
- Authors: Chang Keun Paik, Naeun Ko, Youngjoon Yoo
- Abstract要約: RGB画像を用いたアンチ・スプーフィングのタスクにおいて,新たなトレーニング・パイプラインの手法について検討した。
本手法は, 15.8 倍のパラメータを用いて, 最新のアンチスプーフィングモデルのベースライン性能にアプローチする。
- 参考スコア(独自算出の注目度): 4.542003078412816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, a new method of training pipeline is discussed to achieve
significant performance on the task of anti-spoofing with RGB image. We explore
and highlight the impact of using pseudo-depth to pre-train a network that will
be used as the backbone to the final classifier. While the usage of
pseudo-depth for anti-spoofing task is not a new idea on its own, previous
endeavours utilize pseudo-depth simply as another medium to extract features
for performing prediction, or as part of many auxiliary losses in aiding the
training of the main classifier, normalizing the importance of pseudo-depth as
just another semantic information. Through this work, we argue that there
exists a significant advantage in training the final classifier can be gained
by the pre-trained generator learning to predict the corresponding pseudo-depth
of a given facial image, from a Generative Adversarial Network framework. Our
experimental results indicate that our method results in a much more adaptable
system that can generalize beyond intra-dataset samples, but to inter-dataset
samples, which it has never seen before during training. Quantitatively, our
method approaches the baseline performance of the current state of the art
anti-spoofing models with 15.8x less parameters used. Moreover, experiments
showed that the introduced methodology performs well only using basic binary
label without additional semantic information which indicates potential
benefits of this work in industrial and application based environment where
trade-off between additional labelling and resources are considered.
- Abstract(参考訳): 本稿では,RGB画像を用いたアンチ・スプーフィングのタスクにおいて,重要な性能を発揮するための新しい訓練パイプラインについて述べる。
我々は,最終的な分類器のバックボーンとして使用されるネットワークの事前学習にpseudo-depthを使用することによる影響を探求し,強調する。
アンチスプーフィングタスクにおける擬似深みの使用は、それ自体では新しいアイデアではないが、従来の試みでは、予測を行うための機能や、主分類器のトレーニングを支援する補助的損失の一部として、単に別の意味情報として擬似深みの重要性を正規化するために、単に別の媒体として疑似深みを使用する。
この研究を通じて,前訓練された生成元学習によって最終的な分類器を訓練することで,生成的逆ネットワークフレームワークから与えられた顔画像の擬似奥行きを予測できるという大きな利点があると主張する。
実験結果から,本手法はデータセット内サンプルだけでなく,トレーニング中に見たことのないデータセット間サンプルにも一般化可能な,より適応性の高いシステムであることが示唆された。
定量的に, この手法は, 15.8 倍のパラメータを用いて, 最新のアンチスプーフィングモデルのベースライン性能に接近する。
さらに, 提案手法は, 付加的なラベル付けと資源とのトレードオフを考慮した産業・アプリケーション環境において, 付加的な意味情報を持たない基本バイナリラベルのみを用いて, 有効に動作することを示した。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Data Adaptive Traceback for Vision-Language Foundation Models in Image Classification [34.37262622415682]
我々はData Adaptive Tracebackと呼ばれる新しい適応フレームワークを提案する。
具体的には、ゼロショット法を用いて、事前学習データの最もダウンストリームなタスク関連サブセットを抽出する。
我々は、擬似ラベルに基づく半教師付き手法を採用し、事前学習画像の再利用と、半教師付き学習における確証バイアス問題に対処するための視覚言語コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T18:01:58Z) - From Patches to Objects: Exploiting Spatial Reasoning for Better Visual
Representations [2.363388546004777]
本研究では,空間的推論に基づく新しい予備的事前学習手法を提案する。
本提案手法は,識別的自己管理手法の補助的タスクとして空間推論を導入することで,より柔軟なコントラスト学習の定式化を実現する。
論文 参考訳(メタデータ) (2023-05-21T07:46:46Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Squeezing Backbone Feature Distributions to the Max for Efficient
Few-Shot Learning [3.1153758106426603]
ラベル付きサンプルの少ない使用によって生じる不確実性のため、ほとんどショット分類が難しい問題である。
本稿では,特徴ベクトルをガウス分布に近づけるように処理するトランスファーベース手法を提案する。
また,学習中に未学習のサンプルが利用可能となる多段階的数ショット学習では,達成された性能をさらに向上させる最適なトランスポートインスピレーションアルゴリズムも導入する。
論文 参考訳(メタデータ) (2021-10-18T16:29:17Z) - Improving Music Performance Assessment with Contrastive Learning [78.8942067357231]
本研究では,既存のMPAシステムを改善するための潜在的手法として,コントラスト学習について検討する。
畳み込みニューラルネットワークに適用された回帰タスクに適した重み付きコントラスト損失を導入する。
この結果から,MPA回帰タスクにおいて,コントラッシブ・ベースの手法がSoTA性能に適合し,超越できることが示唆された。
論文 参考訳(メタデータ) (2021-08-03T19:24:25Z) - An Effective Baseline for Robustness to Distributional Shift [5.627346969563955]
ディープラーニングシステムの安全なデプロイには,トレーニング中に見られるものと異なる入力のカテゴリに直面した場合,確実な予測を控えることが重要な要件である。
本論文では, 吸収の原理を用いた分布異常検出の簡便かつ高効率な手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T00:46:11Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。