論文の概要: Training and Profiling a Pediatric Emotion Recognition Classifier on
Mobile Devices
- arxiv url: http://arxiv.org/abs/2108.11754v1
- Date: Sun, 22 Aug 2021 01:48:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-28 03:36:27.978847
- Title: Training and Profiling a Pediatric Emotion Recognition Classifier on
Mobile Devices
- Title(参考訳): モバイルデバイスを用いた小児感情認識分類器の訓練とプロファイリング
- Authors: Agnik Banerjee, Peter Washington, Cezmi Mutlu, Aaron Kline, Dennis P.
Wall
- Abstract要約: エッジデバイス上での推論用に設計された機械学習モデルの最適化とプロファイルを行った。
当社の最良のモデルであるMobileNet-V2ネットワークは、ImageNetで事前トレーニングされ、65.11%の精度で、CAFEでは64.19%のF1スコアを達成した。
このバランスの取れた精度は、26.62倍のパラメータを含むモデルを使用し、Moto G6では走れなかったCAFEの現在の技術よりもわずか1.79%低い。
- 参考スコア(独自算出の注目度): 1.996835144477268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implementing automated emotion recognition on mobile devices could provide an
accessible diagnostic and therapeutic tool for those who struggle to recognize
emotion, including children with developmental behavioral conditions such as
autism. Although recent advances have been made in building more accurate
emotion classifiers, existing models are too computationally expensive to be
deployed on mobile devices. In this study, we optimized and profiled various
machine learning models designed for inference on edge devices and were able to
match previous state of the art results for emotion recognition on children.
Our best model, a MobileNet-V2 network pre-trained on ImageNet, achieved 65.11%
balanced accuracy and 64.19% F1-score on CAFE, while achieving a 45-millisecond
inference latency on a Motorola Moto G6 phone. This balanced accuracy is only
1.79% less than the current state of the art for CAFE, which used a model that
contains 26.62x more parameters and was unable to run on the Moto G6, even when
fully optimized. This work validates that with specialized design and
optimization techniques, machine learning models can become lightweight enough
for deployment on mobile devices and still achieve high accuracies on difficult
image classification tasks.
- Abstract(参考訳): モバイルデバイスで感情の自動認識を実装することは、自閉症などの発達的行動条件を持つ子供を含む感情認識に苦しむ人々にとって、アクセス可能な診断および治療ツールとなる可能性がある。
より正確な感情分類器の構築には最近の進歩があるが、既存のモデルは計算コストがかかりすぎてモバイルデバイスにデプロイできない。
本研究では,エッジデバイス上での推論を目的とした各種機械学習モデルの最適化とプロファイルを行い,子どもの感情認識における過去の成果と一致した。
われわれの最良のモデルであるMobileNet-V2ネットワークはImageNetで事前トレーニングされ、65.11%の精度と64.19%のF1スコアを達成した。
このバランスの取れた精度は、26.62倍のパラメータを持つモデルを使用しており、完全に最適化されてもmoto g6では動作できなかったcafeの現在のartより1.79%低い。
この研究は、特殊な設計と最適化技術により、マシンラーニングモデルがモバイルデバイスへのデプロイに十分軽量になり、難しい画像分類タスクにおいて高い精度を達成することを実証する。
関連論文リスト
- MobilePortrait: Real-Time One-Shot Neural Head Avatars on Mobile Devices [16.489105620313065]
MobilePortraitは、モーションモデリングと画像合成の両方に外部知識を統合することで、学習の複雑さを低減するワンショットのニューラルヘッドアバター手法である。
計算要求の10分の1未満で最先端のパフォーマンスを達成する。
モバイルデバイス上で100 FPS以上の速度に到達し、ビデオおよびオーディオ駆動のインプットをサポートすることが検証されている。
論文 参考訳(メタデータ) (2024-07-08T08:12:57Z) - StairNet: Visual Recognition of Stairs for Human-Robot Locomotion [2.3811618212533663]
StairNetは、階段の視覚的感知と認識のための新しいディープラーニングモデルの開発を支援するイニシアチブである。
本稿では,515,000枚以上の手動ラベル付き画像を用いた大規模データセットの開発について概説する。
ロボット移動のための新しい視覚認識システムを開発・研究する上で,StairNetは有効なプラットフォームであることを示す。
論文 参考訳(メタデータ) (2023-10-31T17:30:57Z) - MicroISP: Processing 32MP Photos on Mobile Devices with Deep Learning [114.66037224769005]
エッジデバイスに特化して設計された新しいMicroISPモデルを提案する。
提案したソリューションは,モバイルMLライブラリを使用して,最新のスマートフォン上で最大32MPの写真を処理できる。
モデルのアーキテクチャは柔軟で、計算能力の異なるデバイスに複雑性を調整することができる。
論文 参考訳(メタデータ) (2022-11-08T17:40:50Z) - Face Detection on Mobile: Five Implementations and Analysis [0.0]
Viola-Jones (Haar Cascade), LBP, HOG, MTCNN, BlazeFaceを含む5つのアルゴリズムをモバイルに適用する。
我々は、モバイルの顔アクセス制御システムや、潜在的に他のモバイルアプリケーションに最適なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-05-11T15:39:21Z) - Real-Time Quantized Image Super-Resolution on Mobile NPUs, Mobile AI
2021 Challenge: Report [67.86837649834636]
我々は,エンド・ツー・エンドのディープラーニングベースの画像超解像ソリューションを開発することを目的とした,最初のモバイルaiチャレンジを紹介する。
提案されたソリューションは、すべての主要なモバイルAIアクセラレータと完全に互換性があり、40-60ms以下のフルHDイメージを再構築することができる。
論文 参考訳(メタデータ) (2021-05-17T13:34:15Z) - Facial Masks and Soft-Biometrics: Leveraging Face Recognition CNNs for
Age and Gender Prediction on Mobile Ocular Images [53.913598771836924]
スマートフォンで撮影した自撮り眼画像を使って年齢や性別を推定します。
ImageNet Challengeの文脈で提案された2つの既存の軽量CNNを適応させる。
一部のネットワークは顔認識のためにさらにトレーニングされており、非常に大規模なトレーニングデータベースが利用可能です。
論文 参考訳(メタデータ) (2021-03-31T01:48:29Z) - It's always personal: Using Early Exits for Efficient On-Device CNN
Personalisation [19.046126301352274]
強力なハードウェアとモデル圧縮技術が利用可能になったことにより、デバイス上での機械学習が現実化しつつある。
本研究では、より小さなパーソナライズされたモデルを用いて特定のシナリオに適合させることを観察する。
PershonEPEEは、初期出口をモデルにアタッチし、デバイス上でパーソナライズするフレームワークである。
論文 参考訳(メタデータ) (2021-02-02T09:10:17Z) - Improved Digital Therapy for Developmental Pediatrics Using Domain-Specific Artificial Intelligence: Machine Learning Study [5.258326585054865]
自動的な感情分類は、自閉症のような発達的な行動状態の子供を含む感情を認識するのに苦労する人々を助けることができる。
ほとんどのコンピュータビジョンの感情認識モデルは成人の感情に基づいて訓練されているため、子供の顔に適用された場合、性能は低下する。
本研究では,児童感情認識モデルの性能を高めるために,児童感情強調画像の収集とラベル付けをゲーミフィケーションする戦略を考案した。
論文 参考訳(メタデータ) (2020-12-16T00:08:51Z) - Real-Time Execution of Large-scale Language Models on Mobile [49.32610509282623]
BERTの最良のモデル構造は,特定のデバイスに適合する計算サイズである。
我々のフレームワークは、モバイルデバイスのリソース仕様とリアルタイム仕様の両方を満たすための特定モデルを保証することができる。
具体的には、当社のモデルはCPUでは5.2倍、GPUでは4.1倍、BERTベースでは0.5-2%の精度損失がある。
論文 参考訳(メタデータ) (2020-09-15T01:59:17Z) - SqueezeFacePoseNet: Lightweight Face Verification Across Different Poses
for Mobile Platforms [55.84746218227712]
顔認識技術は、モバイルデバイスでカメラが利用できることを考えると、信頼性が高く堅牢なユーザー認証を提供することができる。
ディープ畳み込みニューラルネットワークは、多くの正確な顔認証アーキテクチャをもたらすが、その典型的なサイズ(数百メガバイト)は、ダウンロード可能なモバイルアプリケーションに組み込むことができない。
我々は,より大規模なモデルと比較して,十分な精度で動作可能な数メガバイトの軽量な顔認識ネットワークを開発した。
論文 参考訳(メタデータ) (2020-07-16T19:02:38Z) - A Data and Compute Efficient Design for Limited-Resources Deep Learning [68.55415606184]
同変ニューラルネットワークは 深層学習コミュニティへの関心を高めています
医療分野では、データの対称性を効果的に活用して、より正確で堅牢なモデルの構築に成功している。
ディープ・ラーニング・ソリューションのモバイル・オン・デバイス実装は医療応用のために開発されている。
しかし、同変モデルは大規模で計算コストのかかるアーキテクチャを用いて一般的に実装されており、モバイルデバイス上では動作しない。
本研究では、MobileNetV2の同変バージョンを設計、テストし、さらにモデル量子化により最適化し、より効率的な推論を可能にする。
論文 参考訳(メタデータ) (2020-04-21T00:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。