論文の概要: FaceHop: A Light-Weight Low-Resolution Face Gender Classification Method
- arxiv url: http://arxiv.org/abs/2007.09510v3
- Date: Fri, 13 Nov 2020 02:16:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:50:25.755364
- Title: FaceHop: A Light-Weight Low-Resolution Face Gender Classification Method
- Title(参考訳): FaceHop:軽量の低解像度顔のジェンダー分類法
- Authors: Mozhdeh Rouhsedaghat, Yifan Wang, Xiou Ge, Shuowen Hu, Suya You, C.-C.
Jay Kuo
- Abstract要約: 本研究では,FaceHopと呼ばれる低解像度の顔の性別分類手法を提案する。
LFW と CMU Multi-PIE データセットの322倍 32$ のグレースケールの顔画像では、FaceHop はそれぞれ 16.9K と 17.6K のモデルサイズで 94.63% と 95.12% の正確な性別分類率を達成している。
- 参考スコア(独自算出の注目度): 31.813454614418347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A light-weight low-resolution face gender classification method, called
FaceHop, is proposed in this research. We have witnessed rapid progress in face
gender classification accuracy due to the adoption of deep learning (DL)
technology. Yet, DL-based systems are not suitable for resource-constrained
environments with limited networking and computing. FaceHop offers an
interpretable non-parametric machine learning solution. It has desired
characteristics such as a small model size, a small training data amount, low
training complexity, and low-resolution input images. FaceHop is developed with
the successive subspace learning (SSL) principle and built upon the foundation
of PixelHop++. The effectiveness of the FaceHop method is demonstrated by
experiments. For gray-scale face images of resolution $32 \times 32$ in the LFW
and the CMU Multi-PIE datasets, FaceHop achieves correct gender classification
rates of 94.63% and 95.12% with model sizes of 16.9K and 17.6K parameters,
respectively. It outperforms LeNet-5 in classification accuracy while LeNet-5
has a model size of 75.8K parameters.
- Abstract(参考訳): 本研究では,facehopと呼ばれる軽量低解像度顔の性別分類法を提案する。
我々は,ディープラーニング(DL)技術の導入により,顔の性別分類精度が急速に向上するのを目撃した。
しかし、DLベースのシステムは、限られたネットワークとコンピューティングを持つリソース制約のある環境には適していない。
FaceHopは解釈可能な非パラメトリック機械学習ソリューションを提供する。
小さなモデルサイズ、少量のトレーニングデータ量、低いトレーニング複雑さ、低解像度の入力画像といった望ましい特徴を持っている。
facehopは、連続するサブスペース学習(ssl)原則に基づいて開発され、pixelhop++の基礎に基づいている。
FaceHop法の有効性は実験によって実証された。
332 \times 32$ in the lfw と cmu multi-pie データセットでは、facehop はそれぞれ 16.9k のモデルサイズと 17.6k のパラメータで 94.63% と 95.12% の正しい性別分類率を達成している。
分類精度ではLeNet-5より優れており、モデルサイズは75.8Kである。
関連論文リスト
- Efficient Verification-Based Face Identification [50.616875565173274]
効率の良いニューラルモデルで顔認証を行う際の問題点を$f$で検討する。
我々のモデルは、23kパラメータと5M浮動小数点演算(FLOPS)しか必要としない、かなり小さな$f$に導かれる。
我々は、6つの顔認証データセットを用いて、我々の手法が最先端のモデルよりも同等か優れていることを示す。
論文 参考訳(メタデータ) (2023-12-20T18:08:02Z) - X2-Softmax: Margin Adaptive Loss Function for Face Recognition [6.497884034818003]
我々は,X2-Softmaxという新しい角マージン損失を提案する。
X2-Softmax損失は適応的な角マージンを持ち、異なるクラス間の角度が大きくなるにつれて増加するマージンを提供する。
我々は、MS1Mv3データセット上でX2-Softmax損失でニューラルネットワークをトレーニングした。
論文 参考訳(メタデータ) (2023-12-08T10:27:47Z) - Addressing Weak Decision Boundaries in Image Classification by
Leveraging Web Search and Generative Models [14.732229124148596]
多くの大きな問題は、機械学習モデルが、表現不足なグループに対して等しくうまく機能しないことである。
本稿では,Web検索と生成モデルのパワーを活用して,識別モデルの欠点を緩和する手法を提案する。
本研究では, 脆弱な個体群に対して本手法を実証するが, 提案手法は幅広い問題や領域に拡張可能である。
論文 参考訳(メタデータ) (2023-10-30T20:04:50Z) - Toward High Quality Facial Representation Learning [58.873356953627614]
我々はMask Contrastive Face (MCF)と呼ばれる自己教師型事前学習フレームワークを提案する。
トレーニング済みの視覚バックボーンの特徴マップを監視項目として使用し、マスク画像モデリングに部分的にトレーニング済みのデコーダを使用する。
このモデルはAFLW-19顔アライメントの0.932 NME_diag$とLaPa顔解析の93.96 F1スコアを達成する。
論文 参考訳(メタデータ) (2023-09-07T09:11:49Z) - A Lightweight and Accurate Face Detection Algorithm Based on Retinaface [0.5076419064097734]
Retinaface に基づく軽量かつ高精度な顔検出アルゴリズム LAFD (Light and accurate face detection) を提案する。
アルゴリズムのバックボーンネットワークは、畳み込みカーネルのサイズを調整する修正されたMobileNetV3ネットワークである。
入力画像が前処理され、長さが1560px、幅が1200pxとなると、平均精度は86.2%となる。
論文 参考訳(メタデータ) (2023-08-08T15:36:57Z) - Online Hyperparameter Optimization for Class-Incremental Learning [99.70569355681174]
クラス増分学習(Class-incremental Learning, CIL)は、クラス数がフェーズごとに増加する一方で、分類モデルを訓練することを目的としている。
CILの固有の課題は、安定性と塑性のトレードオフである。すなわち、CILモデルは古い知識を保ち、新しい知識を吸収するためにプラスチックを保たなければならない。
本稿では,事前設定を知らずにトレードオフを適応的に最適化するオンライン学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-11T17:58:51Z) - Mitigating Gender Bias in Face Recognition Using the von Mises-Fisher
Mixture Model [7.049738935364298]
本研究では,ディープ顔認識ネットワークの性別バイアスについて検討する。
幾何学的考察により、新しいポストプロセッシング手法により性別バイアスを緩和する。
実際、様々なデータセットに関する広範な数値実験は、慎重に選択することで性バイアスが大幅に減少することを示している。
論文 参考訳(メタデータ) (2022-10-24T23:53:56Z) - SFace: Sigmoid-Constrained Hypersphere Loss for Robust Face Recognition [74.13631562652836]
SFace(Sigmoid-Constrained hypersphere loss)と呼ばれる新しい損失関数を提案する。
SFaceは2つのシグモイド勾配再スケール関数によってそれぞれ制御される超球面多様体にクラス内およびクラス間制約を課す。
クラス内距離を減らし、ラベルノイズへの過度な適合を防ぎ、より堅牢なディープ顔認識モデルに寄与する。
論文 参考訳(メタデータ) (2022-05-24T11:54:15Z) - PointHop++: A Lightweight Learning Model on Point Sets for 3D
Classification [55.887502438160304]
ポイントホップ法は、Zhangらによって、教師なし特徴抽出を伴う3Dポイントクラウド分類のために提案された。
1)モデルパラメータ数の観点からモデルの複雑さを減らし,2)クロスエントロピー基準に基づいて自動的に識別特徴を順序付けする。
ModelNet40ベンチマークデータセットで実施した実験により、PointHop++法がディープニューラルネットワーク(DNN)ソリューションと同等に動作し、他の教師なし特徴抽出法を上回る性能を示す。
論文 参考訳(メタデータ) (2020-02-09T04:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。