論文の概要: Small, Accurate, and Fast Vehicle Re-ID on the Edge: the SAFR Approach
- arxiv url: http://arxiv.org/abs/2001.08895v1
- Date: Fri, 24 Jan 2020 06:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 05:06:05.758267
- Title: Small, Accurate, and Fast Vehicle Re-ID on the Edge: the SAFR Approach
- Title(参考訳): エッジ上の小型・高精度・高速車両リID:SAFRアプローチ
- Authors: Abhijit Suprem, Calton Pu, Joao Eduardo Ferreira
- Abstract要約: 本研究では,様々な計算環境下でのフレキシブルな車両再設計のための小型・高精度・高速リID(SAFR)設計を提案する。
大規模計算資源を持つクラウド型環境のためのSAFR-Large、いくつかの計算制約のあるモバイルデバイス向けのSAFR-Small、厳しいメモリと計算制約のあるエッジデバイス向けのSAFR-Micro。
- 参考スコア(独自算出の注目度): 2.717743361116791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a Small, Accurate, and Fast Re-ID (SAFR) design for flexible
vehicle re-id under a variety of compute environments such as cloud, mobile,
edge, or embedded devices by only changing the re-id model backbone. Through
best-fit design choices, feature extraction, training tricks, global attention,
and local attention, we create a reid model design that optimizes
multi-dimensionally along model size, speed, & accuracy for deployment under
various memory and compute constraints. We present several variations of our
flexible SAFR model: SAFR-Large for cloud-type environments with large compute
resources, SAFR-Small for mobile devices with some compute constraints, and
SAFR-Micro for edge devices with severe memory & compute constraints.
SAFR-Large delivers state-of-the-art results with mAP 81.34 on the VeRi-776
vehicle re-id dataset (15% better than related work). SAFR-Small trades a 5.2%
drop in performance (mAP 77.14 on VeRi-776) for over 60% model compression and
150% speedup. SAFR-Micro, at only 6MB and 130MFLOPS, trades 6.8% drop in
accuracy (mAP 75.80 on VeRi-776) for 95% compression and 33x speedup compared
to SAFR-Large.
- Abstract(参考訳): 本稿では,re-idモデルバックボーンを変更するだけで,クラウド,モバイル,エッジ,組み込みデバイスなどの様々な計算環境において,フレキシブルな車両のre-idに対して,小型で高精度で高速なsafr(re-id)設計を提案する。
最適な設計選択,機能抽出,トレーニングトリック,グローバルアテンション,ローカルアテンションなどを通じて,モデルサイズや速度,さまざまなメモリや計算制約の下でのデプロイメントの精度を多次元的に最適化する,reidモデル設計を作成します。
大規模計算資源を持つクラウド型環境のためのSAFR-Large、いくつかの計算制約のあるモバイルデバイス向けのSAFR-Small、厳しいメモリと計算制約のあるエッジデバイス向けのSAFR-Micro。
SAFR-Largeは、VeRi-776車両のリIDデータセット(関連する作業よりも15%良い)でmAP 81.34で最先端の結果を提供する。
SAFR-Smallは5.2%の性能低下(VeRi-776ではmAP 77.14)を60%以上のモデル圧縮と150%のスピードアップで取引している。
SAFR-Microは、わずか6MBと130MFLOPSの6.8%の精度(VeRi-776のmAP 75.80)で、圧縮95%とSAFR-Largeの33倍の速度で取引されている。
関連論文リスト
- Differentially Private Parameter-Efficient Fine-tuning for Large ASR Models [21.1164927055712]
大型のASRモデルは、機密情報を不注意に漏洩させ、差分プライバシー(DP)のような正式なプライバシー対策によって緩和することができる。
本研究は,ASRモデルにおいて,より少ない計算と性能コストでプライバシーリスクを軽減する手段として,DPパラメータ効率の微調整を提案する。
論文 参考訳(メタデータ) (2024-10-02T18:49:15Z) - A Novel Denoising Technique and Deep Learning Based Hybrid Wind Speed Forecasting Model for Variable Terrain Conditions [2.531156266686649]
本稿では,風速の短期予測のための新しい適応モデルを提案する。
単純な地形条件と複雑な地形条件の予測精度の0.70%において、最も低いばらつきを達成している。
論文 参考訳(メタデータ) (2024-08-28T06:07:58Z) - SDPose: Tokenized Pose Estimation via Circulation-Guide Self-Distillation [53.675725490807615]
SDPoseは小型変圧器モデルの性能向上のための新しい自己蒸留法である。
SDPose-Tは4.4Mパラメータと1.8 GFLOPを持つ69.7%のmAPを取得し、SDPose-S-V2はMSCOCO検証データセット上で73.5%のmAPを取得する。
論文 参考訳(メタデータ) (2024-04-04T15:23:14Z) - MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases [46.997172696192195]
本稿では、クラウドコストの増大とレイテンシの懸念により、モバイルデバイス上での効率的な大規模言語モデル(LLM)の必要性に対処する。
モバイルデプロイメントの実践的な選択として,10億未満のパラメータで高品質なLLMを設計することに重点を置いています。
論文 参考訳(メタデータ) (2024-02-22T18:58:55Z) - Lightweight Face Recognition: An Improved MobileFaceNet Model [0.0]
本稿では,MobileFaceNetとその修正版であるMMobileFaceNetについて述べる。
計算資源が限られているデバイス上での効率的なFRモデルの必要性は、メモリフットプリントを削減し、精度を犠牲にすることなく計算要求を減らしたモデルの開発につながった。
論文 参考訳(メタデータ) (2023-11-26T15:01:00Z) - FP8-LM: Training FP8 Large Language Models [47.17804713425323]
本稿では,大規模言語モデルの学習のためのFP8自動混合精度フレームワークを提案する。
実験の結果,H100 GPUプラットフォーム上でのGPT-175Bモデルのトレーニングにおいて,我々のFP8混合精度トレーニングフレームワークは,実際のメモリ使用量の39%削減だけでなく,広く採用されているBF16フレームワークよりも75%高速に動作したことがわかった。
論文 参考訳(メタデータ) (2023-10-27T17:59:51Z) - Fast-BEV: A Fast and Strong Bird's-Eye View Perception Baseline [76.48192454417138]
Bird's-Eye View (BEV)の表現は、次世代自動運転車(AV)の認識の基礎として期待されている。
本稿では,車載チップ上で高速なBEV認識を実現するフレームワークであるFast-BEVを提案する。
論文 参考訳(メタデータ) (2023-01-29T18:43:31Z) - Real-time Speech Interruption Analysis: From Cloud to Client Deployment [20.694024217864783]
我々は最近,音声の中断を検知する最初の音声中断解析モデルを開発した。
この機能をよりコスト効率が高く、環境に優しい方法で提供するため、クライアントデバイスでWavLM_SIモデルを出荷するために、モデルの複雑さとサイズを削減しました。
論文 参考訳(メタデータ) (2022-10-24T15:39:51Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。