論文の概要: Small, Accurate, and Fast Vehicle Re-ID on the Edge: the SAFR Approach
- arxiv url: http://arxiv.org/abs/2001.08895v1
- Date: Fri, 24 Jan 2020 06:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 05:06:05.758267
- Title: Small, Accurate, and Fast Vehicle Re-ID on the Edge: the SAFR Approach
- Title(参考訳): エッジ上の小型・高精度・高速車両リID:SAFRアプローチ
- Authors: Abhijit Suprem, Calton Pu, Joao Eduardo Ferreira
- Abstract要約: 本研究では,様々な計算環境下でのフレキシブルな車両再設計のための小型・高精度・高速リID(SAFR)設計を提案する。
大規模計算資源を持つクラウド型環境のためのSAFR-Large、いくつかの計算制約のあるモバイルデバイス向けのSAFR-Small、厳しいメモリと計算制約のあるエッジデバイス向けのSAFR-Micro。
- 参考スコア(独自算出の注目度): 2.717743361116791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a Small, Accurate, and Fast Re-ID (SAFR) design for flexible
vehicle re-id under a variety of compute environments such as cloud, mobile,
edge, or embedded devices by only changing the re-id model backbone. Through
best-fit design choices, feature extraction, training tricks, global attention,
and local attention, we create a reid model design that optimizes
multi-dimensionally along model size, speed, & accuracy for deployment under
various memory and compute constraints. We present several variations of our
flexible SAFR model: SAFR-Large for cloud-type environments with large compute
resources, SAFR-Small for mobile devices with some compute constraints, and
SAFR-Micro for edge devices with severe memory & compute constraints.
SAFR-Large delivers state-of-the-art results with mAP 81.34 on the VeRi-776
vehicle re-id dataset (15% better than related work). SAFR-Small trades a 5.2%
drop in performance (mAP 77.14 on VeRi-776) for over 60% model compression and
150% speedup. SAFR-Micro, at only 6MB and 130MFLOPS, trades 6.8% drop in
accuracy (mAP 75.80 on VeRi-776) for 95% compression and 33x speedup compared
to SAFR-Large.
- Abstract(参考訳): 本稿では,re-idモデルバックボーンを変更するだけで,クラウド,モバイル,エッジ,組み込みデバイスなどの様々な計算環境において,フレキシブルな車両のre-idに対して,小型で高精度で高速なsafr(re-id)設計を提案する。
最適な設計選択,機能抽出,トレーニングトリック,グローバルアテンション,ローカルアテンションなどを通じて,モデルサイズや速度,さまざまなメモリや計算制約の下でのデプロイメントの精度を多次元的に最適化する,reidモデル設計を作成します。
大規模計算資源を持つクラウド型環境のためのSAFR-Large、いくつかの計算制約のあるモバイルデバイス向けのSAFR-Small、厳しいメモリと計算制約のあるエッジデバイス向けのSAFR-Micro。
SAFR-Largeは、VeRi-776車両のリIDデータセット(関連する作業よりも15%良い)でmAP 81.34で最先端の結果を提供する。
SAFR-Smallは5.2%の性能低下(VeRi-776ではmAP 77.14)を60%以上のモデル圧縮と150%のスピードアップで取引している。
SAFR-Microは、わずか6MBと130MFLOPSの6.8%の精度(VeRi-776のmAP 75.80)で、圧縮95%とSAFR-Largeの33倍の速度で取引されている。
関連論文リスト
- SafeRoute: Adaptive Model Selection for Efficient and Accurate Safety Guardrails in Large Language Models [63.63254955809224]
本稿では,難しい例と簡単な例を区別するバイナリルータを提案する。
提案手法は、ルータが考慮するデータに対して、より大きな安全ガードモデルを選択的に適用し、精度を維持しながら効率を向上する。
複数のベンチマークデータセットによる実験結果から,適応モデルの選択により,計算コストと安全性性能のトレードオフが著しく向上することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:51:17Z) - FlexiGPT: Pruning and Extending Large Language Models with Low-Rank Weight Sharing [59.12511498024836]
本稿では,重み付けスコアに基づいてモデルブロックを選択的にプルーする大規模言語モデル(LLM)をプルーする手法を提案する。
重み共有機構を用いて各刈り込みブロックを置換する原理的計量を提案する。
経験的評価は、既存の方法よりも大幅にパフォーマンスが向上したことを示している。
論文 参考訳(メタデータ) (2025-01-24T18:46:37Z) - MOFHEI: Model Optimizing Framework for Fast and Efficient Homomorphically Encrypted Neural Network Inference [0.8388591755871735]
ホモモルフィック暗号化(HE)により、暗号化データ上で機械学習タスクを実行できる。
HEに基づくニューラルネットワーク推論を高速かつ効率的にするためのモデルを最適化するフレームワークであるMOFHEIを提案する。
このフレームワークはLeNet上で最大98%のプルーニング比を実現し,PI実行に必要なHE操作の最大93%を排除した。
論文 参考訳(メタデータ) (2024-12-10T22:44:54Z) - DSFEC: Efficient and Deployable Deep Radar Object Detection [0.0]
本研究では,レーダー物体検出ネットワークにおけるDepthwise Separable Convolutionsの効率性について検討する。
本稿では,新しい特徴拡張圧縮(FEC)モジュールをPointPillars機能エンコーダに導入し,モデル性能をさらに向上する。
私たちのデプロイ可能なモデルは、ベースラインと比較してRaspberry Piのランタイムの74.5%の大幅な削減を実現しています。
論文 参考訳(メタデータ) (2024-12-10T11:03:51Z) - Collaborative Decoding Makes Visual Auto-Regressive Modeling Efficient [52.96232442322824]
CoDe(Collaborative Decoding)は、Visual Auto-Regressive (VAR)フレームワーク用に設計された、新しい効率的なデコーディング戦略である。
CoDeは、大規模でのパラメータ要求の大幅な削減と、異なるスケールでの排他的生成パターンという、2つの重要な観察に乗じている。
CoDeは1.7倍のスピードアップを実現し、メモリ使用量を約50%削減し、画像品質を1.95から1.98に改善した。
論文 参考訳(メタデータ) (2024-11-26T15:13:15Z) - A Novel Denoising Technique and Deep Learning Based Hybrid Wind Speed Forecasting Model for Variable Terrain Conditions [2.531156266686649]
本稿では,風速の短期予測のための新しい適応モデルを提案する。
単純な地形条件と複雑な地形条件の予測精度の0.70%において、最も低いばらつきを達成している。
論文 参考訳(メタデータ) (2024-08-28T06:07:58Z) - MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases [46.997172696192195]
本稿では、クラウドコストの増大とレイテンシの懸念により、モバイルデバイス上での効率的な大規模言語モデル(LLM)の必要性に対処する。
モバイルデプロイメントの実践的な選択として,10億未満のパラメータで高品質なLLMを設計することに重点を置いています。
論文 参考訳(メタデータ) (2024-02-22T18:58:55Z) - Lightweight Face Recognition: An Improved MobileFaceNet Model [0.0]
本稿では,MobileFaceNetとその修正版であるMMobileFaceNetについて述べる。
計算資源が限られているデバイス上での効率的なFRモデルの必要性は、メモリフットプリントを削減し、精度を犠牲にすることなく計算要求を減らしたモデルの開発につながった。
論文 参考訳(メタデータ) (2023-11-26T15:01:00Z) - MatFormer: Nested Transformer for Elastic Inference [91.45687988953435]
MatFormerは、多様なデプロイメント制約にまたがる弾性推論を提供するように設計された、新しいTransformerアーキテクチャである。
MatFormerは、標準的なTransformerモデルにネストフィードフォワードネットワーク(FFN)ブロック構造を組み込むことで、これを実現している。
8億5000万デコーダのみのMatFormer言語モデル(MatLM)により,5億2200万から8億5千万のパラメータにまたがる複数の小さなモデルを抽出できることを示す。
論文 参考訳(メタデータ) (2023-10-11T17:57:14Z) - Real-time Speech Interruption Analysis: From Cloud to Client Deployment [20.694024217864783]
我々は最近,音声の中断を検知する最初の音声中断解析モデルを開発した。
この機能をよりコスト効率が高く、環境に優しい方法で提供するため、クライアントデバイスでWavLM_SIモデルを出荷するために、モデルの複雑さとサイズを削減しました。
論文 参考訳(メタデータ) (2022-10-24T15:39:51Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。