論文の概要: Ef-QuantFace: Streamlined Face Recognition with Small Data and Low-Bit
Precision
- arxiv url: http://arxiv.org/abs/2402.18163v1
- Date: Wed, 28 Feb 2024 08:53:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 15:46:33.240038
- Title: Ef-QuantFace: Streamlined Face Recognition with Small Data and Low-Bit
Precision
- Title(参考訳): Ef-QuantFace:小さなデータと低ビット精度の顔認識
- Authors: William Gazali, Jocelyn Michelle Kho, Joshua Santoso, Williem
- Abstract要約: 本稿では,MS1Mの440倍の14,000枚の画像でモデルを微調整する効率駆動型手法を提案する。
我々は、より小さなデータセットで有効量子化が達成可能であることを実証し、新しいパラダイムを提示する。
- 参考スコア(独自算出の注目度): 1.9389881806157312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, model quantization for face recognition has gained
prominence. Traditionally, compressing models involved vast datasets like the
5.8 million-image MS1M dataset as well as extensive training times, raising the
question of whether such data enormity is essential. This paper addresses this
by introducing an efficiency-driven approach, fine-tuning the model with just
up to 14,000 images, 440 times smaller than MS1M. We demonstrate that effective
quantization is achievable with a smaller dataset, presenting a new paradigm.
Moreover, we incorporate an evaluation-based metric loss and achieve an
outstanding 96.15% accuracy on the IJB-C dataset, establishing a new
state-of-the-art compressed model training for face recognition. The subsequent
analysis delves into potential applications, emphasizing the transformative
power of this approach. This paper advances model quantization by highlighting
the efficiency and optimal results with small data and training time.
- Abstract(参考訳): 近年,顔認識のためのモデル量子化が注目されている。
伝統的に、圧縮モデルには580万イメージのMS1Mデータセットのような膨大なデータセットと広範なトレーニング時間が含まれており、そのようなデータエノミティが不可欠かどうかという疑問が提起されている。
本稿では,MS1Mの440倍の14,000枚の画像でモデルを微調整する,効率駆動型アプローチを導入することでこの問題に対処する。
有効な量子化は、より小さなデータセットで実現可能であり、新しいパラダイムを示す。
さらに,評価に基づくメトリック損失を取り入れ,ijb-cデータセットにおける96.15%の精度を達成し,顔認識のための新しい最先端圧縮モデルトレーニングを確立した。
その後の分析は潜在的な応用に発展し、このアプローチの変換力を強調した。
本稿では,少ないデータと訓練時間での効率性と最適結果に着目し,モデル量子化手法を提案する。
関連論文リスト
- On Improved Conditioning Mechanisms and Pre-training Strategies for Diffusion Models [27.402312440922557]
最高の潜伏拡散モデル (LDMs) トレーニングレシピの鍵となる要素は、しばしば研究コミュニティでは利用できない。
我々は,モデルの性能とトレーニング効率に着目したLCMトレーニングレシピの詳細な研究を行う。
本稿では,セマンティクスと制御メタデータの条件付けを両立させる新しい条件付け機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T15:22:26Z) - Teddy: Efficient Large-Scale Dataset Distillation via Taylor-Approximated Matching [74.75248610868685]
Teddyは、大規模なデータセットを扱うように設計されたTaylor近似データセット蒸留フレームワークである。
TeddyはTiny-ImageNetとオリジナルサイズのImageNet-1Kデータセット上で、最先端の効率性とパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-10-10T03:28:46Z) - A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - Efficiently Robustify Pre-trained Models [18.392732966487582]
大規模モデルの現実的な設定に対する堅牢性は、いまだ探索されていないトピックである。
まず、異なる摂動とデータセットの下でこれらのモデルのパフォーマンスをベンチマークします。
続いて、大規模ネットワークにおいて、モデルファインチューニングに基づく既存のロバスト化スキームが拡張性に欠ける可能性について論じる。
論文 参考訳(メタデータ) (2023-09-14T08:07:49Z) - Sample Less, Learn More: Efficient Action Recognition via Frame Feature
Restoration [59.6021678234829]
本稿では,2つのスパースサンプリングおよび隣接するビデオフレームの中間特徴を復元する新しい手法を提案する。
提案手法の統合により, 一般的な3つのベースラインの効率は50%以上向上し, 認識精度は0.5%低下した。
論文 参考訳(メタデータ) (2023-07-27T13:52:42Z) - Delving Deeper into Data Scaling in Masked Image Modeling [145.36501330782357]
視覚認識のためのマスク付き画像モデリング(MIM)手法のスケーリング能力に関する実証的研究を行った。
具体的には、Webで収集したCoyo-700Mデータセットを利用する。
我々のゴールは、データとモデルのサイズの異なるスケールでダウンストリームタスクのパフォーマンスがどのように変化するかを調べることです。
論文 参考訳(メタデータ) (2023-05-24T15:33:46Z) - The effectiveness of MAE pre-pretraining for billion-scale pretraining [65.98338857597935]
モデルの初期化には自己教師付きMAE技術を用いる。
画像分類, 映像認識, 物体検出, ローショット分類, ゼロショット認識にまたがる10種類の視覚的タスクに対して, 事前学習の有効性を評価する。
論文 参考訳(メタデータ) (2023-03-23T17:56:12Z) - On Data Scaling in Masked Image Modeling [36.00347416479826]
マスク付き画像モデリング(MIM)は、大きなデータの恩恵を受けられないと疑われている。
ImageNet-1Kの10%から完全なImageNet-22Kまで、モデルサイズは4900万から10億まで、トレーニング期間は125万から5万まで。
事前トレーニングにおけるバリデーションの損失は、複数のタスクの微調整においてモデルがどれだけうまく機能するかを測定するのに良い指標である。
論文 参考訳(メタデータ) (2022-06-09T17:58:24Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。