論文の概要: Post-Train Adaptive MobileNet for Fast Anti-Spoofing
- arxiv url: http://arxiv.org/abs/2207.13410v1
- Date: Wed, 27 Jul 2022 09:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:16:19.605557
- Title: Post-Train Adaptive MobileNet for Fast Anti-Spoofing
- Title(参考訳): 高速アンチスプーフィングのためのポストトレイン適応モバイルネット
- Authors: Kostiantyn Khabarlak
- Abstract要約: Post-Train Adaptive (PTA)ブロックはMobileNetV2 Inverted Residualブロックの代替である。
PTAブロックは計算コストの異なる複数の分岐を持つ。
モデルは一度トレーニングされ、トレーニング後に、モバイルデバイス上でも、簡単に再構成できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many applications require high accuracy of neural networks as well as low
latency and user data privacy guaranty. Face anti-spoofing is one of such
tasks. However, a single model might not give the best results for different
device performance categories, while training multiple models is time
consuming. In this work we present Post-Train Adaptive (PTA) block. Such a
block is simple in structure and offers a drop-in replacement for the
MobileNetV2 Inverted Residual block. The PTA block has multiple branches with
different computation costs. The branch to execute can be selected on-demand
and at runtime; thus, offering different inference times and configuration
capability for multiple device tiers. Crucially, the model is trained once and
can be easily reconfigured after training, even directly on a mobile device. In
addition, the proposed approach shows substantially better overall performance
in comparison to the original MobileNetV2 as tested on CelebA-Spoof dataset.
Different PTA block configurations are sampled at training time, which also
decreases overall wall-clock time needed to train the model. While we present
computational results for the anti-spoofing problem, the MobileNetV2 with PTA
blocks is applicable to any problem solvable with convolutional neural
networks, which makes the results presented practically significant.
- Abstract(参考訳): 多くのアプリケーションは、ニューラルネットワークの高精度、低レイテンシ、ユーザデータのプライバシー保証を必要とする。
対スプーフィングはそのようなタスクの1つです。
しかし、ひとつのモデルが異なるデバイスパフォーマンスカテゴリに対して最高の結果を与えていない場合もあり、複数のモデルをトレーニングするのは時間がかかる。
この作業では、Post-Train Adaptive (PTA)ブロックを提示します。
このようなブロックは構造が単純で、mobilenetv2反転残差ブロックのドロップイン置換を提供する。
PTAブロックは計算コストの異なる複数の分岐を持つ。
実行するブランチはオンデマンドと実行時に選択できるため、複数のデバイス層に対して異なる推論時間と設定機能を提供する。
重要なことは、モデルは一度トレーニングされ、トレーニング後に、モバイルデバイス上でも簡単に再構成できる。
さらに, celeba-spoof データセットでテストした mobilenetv2 と比較して, 提案手法の全体的な性能は大幅に向上した。
異なるPTAブロック構成は、トレーニング時にサンプリングされ、モデルのトレーニングに必要な全体的なウォールタイム時間を短縮する。
提案手法では,ptaブロックを用いたmobilenetv2は畳み込みニューラルネットワークを用いて解くことができる任意の問題に適用可能であり,その結果は実質的に有意である。
関連論文リスト
- Realizing Unaligned Block-wise Pruning for DNN Acceleration on Mobile Devices [1.6114012813668932]
ブロックワイドプルーニングは、スピードアップゲインに対する低い精度のドロップトレードオフのため、有望である。
Unaligned block pruning (UBP) は、任意の位置にブロックを選択できるようにすることによってこの問題に対処する。
ブロック拡張と分割という,擬似最適かつ高速なブロック選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-29T01:59:06Z) - Block Selective Reprogramming for On-device Training of Vision Transformers [12.118303034660531]
本稿では,事前学習したモデルのブロック全体のごく一部のみを微調整するブロック選択型再プログラミング(BSR)を提案する。
既存の代替手法と比較して、トレーニングメモリを最大1.4倍、計算コストを最大2倍に削減する。
論文 参考訳(メタデータ) (2024-03-25T08:41:01Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Fast Propagation is Better: Accelerating Single-Step Adversarial
Training via Sampling Subnetworks [69.54774045493227]
逆行訓練の欠点は、逆行例の生成によって引き起こされる計算オーバーヘッドである。
モデルの内部構造ブロックを利用して効率を向上させることを提案する。
従来の手法と比較して,本手法はトレーニングコストを削減できるだけでなく,モデルの堅牢性も向上する。
論文 参考訳(メタデータ) (2023-10-24T01:36:20Z) - MatFormer: Nested Transformer for Elastic Inference [94.1789252941718]
MatFormerは、様々なデプロイメント制約で弾力性を提供するように設計されたネストトランスフォーマーアーキテクチャである。
2.6BデコーダのみのMatFormer言語モデル(MatLM)は1.5Bから2.6Bまでの小さなモデルを抽出できることを示す。
また,MatFormerベースのViT(MatViT)エンコーダから抽出した小さなエンコーダは,適応的な大規模検索のための距離空間構造を保持する。
論文 参考訳(メタデータ) (2023-10-11T17:57:14Z) - Post-Train Adaptive U-Net for Image Segmentation [0.0]
U-Net+PTAニューラルネットワークを導入し、一度トレーニングし、異なるデバイスパフォーマンスカテゴリに適応する。
ポストトレインの設定は、モバイルを含むあらゆる推論デバイス上で実行時に行うことができる。
PTAアプローチでは、CamVidデータセットのイメージセグメンテーションDiceスコアを改善することができる。
論文 参考訳(メタデータ) (2023-01-16T11:06:05Z) - MutualNet: Adaptive ConvNet via Mutual Learning from Different Model
Configurations [51.85020143716815]
MutualNetは、リソース制約の多様なセットで実行できる単一のネットワークを訓練するために提案します。
提案手法は,様々なネットワーク幅と入力解像度を持つモデル構成のコホートを訓練する。
MutualNetは、さまざまなネットワーク構造に適用できる一般的なトレーニング方法論です。
論文 参考訳(メタデータ) (2021-05-14T22:30:13Z) - Replay and Synthetic Speech Detection with Res2net Architecture [85.20912636149552]
既存のリプレイと合成音声検出のアプローチは、スプーフィング攻撃に対する一般化性に欠けていた。
本研究では、Res2Netと呼ばれる新しいモデル構造を活用して、アンチスプーフィング対策の一般化性を改善することを提案する。
論文 参考訳(メタデータ) (2020-10-28T14:33:42Z) - Detecting soccer balls with reduced neural networks: a comparison of
multiple architectures under constrained hardware scenarios [0.8808021343665321]
この研究は、制約のあるハードウェア環境をターゲットにした最近のニューラルネットワークの提案の比較研究を提供する。
我々は、MobileNetV2とMobileNetV3モデルの複数のオープン実装を、基礎となる異なるアーキテクチャで訓練する。
以上の結果から,MobileNetV3モデルは制約シナリオのみにおいて,mAPと推論時間とのトレードオフが良好であること,また,高幅乗算器を持つMobileNetV2はサーバ側推論に適していることが示唆された。
論文 参考訳(メタデータ) (2020-09-28T23:26:25Z) - Pruning Convolutional Filters using Batch Bridgeout [14.677724755838556]
最先端のコンピュータビジョンモデルでは、トレーニングセットに適合するために必要なパラメータ数がはるかに多いため、能力が急速に向上している。
これにより最適化と一般化性能が向上する。
推論コストを削減するために、トレーニングされたニューラルネットワークの畳み込みフィルタを切断することで、推論中の実行時のメモリと計算要求を削減できる。
本稿では,ニューラルネットワークの性能低下を最小限に抑え,効率よく刈り取ることができるようにトレーニングするために,スパシティ誘導正規化スキームであるBatch Bridgeoutを提案する。
論文 参考訳(メタデータ) (2020-09-23T01:51:47Z) - Cascaded Regression Tracking: Towards Online Hard Distractor
Discrimination [202.2562153608092]
本稿では,2段階の逐次回帰トラッカーを提案する。
第1段階では, 容易に同定可能な負の候補を抽出する。
第2段階では、残留するあいまいな硬質試料をダブルチェックするために、離散サンプリングに基づくリッジ回帰を設計する。
論文 参考訳(メタデータ) (2020-06-18T07:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。