論文の概要: LC-NAS: Latency Constrained Neural Architecture Search for Point Cloud
Networks
- arxiv url: http://arxiv.org/abs/2008.10309v1
- Date: Mon, 24 Aug 2020 10:30:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 09:06:50.159443
- Title: LC-NAS: Latency Constrained Neural Architecture Search for Point Cloud
Networks
- Title(参考訳): LC-NAS: ポイントクラウドネットワークのためのレイテンシ制約付きニューラルネットワーク探索
- Authors: Guohao Li, Mengmeng Xu, Silvio Giancola, Ali Thabet, Bernard Ghanem
- Abstract要約: LC-NASは、最小計算コストでポイントクラウド分類のための最先端アーキテクチャを見つけることができる。
検索したアーキテクチャが、適度に低い精度で、望ましいレイテンシを実現する方法を示します。
- 参考スコア(独自算出の注目度): 73.78551758828294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud architecture design has become a crucial problem for 3D deep
learning. Several efforts exist to manually design architectures with high
accuracy in point cloud tasks such as classification, segmentation, and
detection. Recent progress in automatic Neural Architecture Search (NAS)
minimizes the human effort in network design and optimizes high performing
architectures. However, these efforts fail to consider important factors such
as latency during inference. Latency is of high importance in time critical
applications like self-driving cars, robot navigation, and mobile applications,
that are generally bound by the available hardware. In this paper, we introduce
a new NAS framework, dubbed LC-NAS, where we search for point cloud
architectures that are constrained to a target latency. We implement a novel
latency constraint formulation to trade-off between accuracy and latency in our
architecture search. Contrary to previous works, our latency loss guarantees
that the final network achieves latency under a specified target value. This is
crucial when the end task is to be deployed in a limited hardware setting.
Extensive experiments show that LC-NAS is able to find state-of-the-art
architectures for point cloud classification in ModelNet40 with minimal
computational cost. We also show how our searched architectures achieve any
desired latency with a reasonably low drop in accuracy. Finally, we show how
our searched architectures easily transfer to a different task, part
segmentation on PartNet, where we achieve state-of-the-art results while
lowering latency by a factor of 10.
- Abstract(参考訳): ポイントクラウドアーキテクチャ設計は3Dディープラーニングにとって重要な問題となっている。
分類、セグメンテーション、検出などのポイントクラウドタスクにおいて、高い精度でアーキテクチャを手作業で設計する試みがいくつかある。
最近の自動ニューラルネットワーク検索(nas)の進歩は、ネットワーク設計における人間の努力を最小化し、ハイパフォーマンスアーキテクチャを最適化する。
しかし、これらの取り組みは推論中の遅延などの重要な要因を考慮しない。
レイテンシは、一般的に利用可能なハードウェアに縛られる自動運転車、ロボットナビゲーション、モバイルアプリケーションなど、時間的に重要なアプリケーションにおいて非常に重要である。
本稿では、LC-NASと呼ばれる新しいNASフレームワークを導入し、ターゲットのレイテンシに制約のあるポイントクラウドアーキテクチャを探索する。
アーキテクチャ検索の精度とレイテンシのトレードオフを抑えるために,新しい遅延制約式を実装した。
以前の動作とは対照的に、レイテンシ損失は、最終ネットワークが指定された目標値の下で遅延を達成することを保証します。
最終タスクが限られたハードウェア設定でデプロイされる場合、これは非常に重要です。
大規模な実験により、LC-NASは最小の計算コストでModelNet40のポイントクラウド分類のための最先端アーキテクチャを見つけることができることが示された。
また、検索したアーキテクチャが所望のレイテンシーをある程度の精度で達成する方法も示しています。
最後に、検索したアーキテクチャをpartnet上の部分セグメンテーションという別のタスクに簡単に転送する方法を示し、レイテンシを10倍に抑えながら、最先端の結果を達成します。
関連論文リスト
- PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - Search-time Efficient Device Constraints-Aware Neural Architecture
Search [6.527454079441765]
コンピュータビジョンや自然言語処理といったディープラーニング技術は、計算コストが高く、メモリ集約的です。
ニューラルアーキテクチャサーチ(NAS)によるデバイス制約に最適化されたタスク固有のディープラーニングアーキテクチャの構築を自動化する。
本稿では,エッジデバイス制約を組み込んだ高速ニューラルネットワークアーキテクチャ探索の原理的手法であるDCA-NASを提案する。
論文 参考訳(メタデータ) (2023-07-10T09:52:28Z) - Inference Latency Prediction at the Edge [0.3974789827371669]
State-of-the-art Neural Architecture(NA)は通常、NAS(Neural Architecture Search)を通じて設計され、精度と効率のトレードオフに優れたNAを識別する。
NAS中の巨大な候補アーキテクチャのレイテンシの測定はスケーラブルではないため、モバイルデバイス上でのエンドツーエンドの推論遅延を予測するためのアプローチが必要である。
本稿では,これらの課題に対処する遅延予測フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T00:46:06Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - ISyNet: Convolutional Neural Networks design for AI accelerator [0.0]
現在の最先端アーキテクチャは、モデル複雑さを考慮して、ニューラルアーキテクチャサーチ(NAS)によって発見されている。
本稿では,ニューラルネットワーク探索空間のハードウェア効率の指標として,行列効率測定(MEM),ハードウェア効率の高い演算からなる探索空間,レイテンシを考慮したスケーリング手法を提案する。
我々は、ImageNet上のNPUデバイスの設計アーキテクチャと、下流の分類および検出タスクの一般化能力の利点を示す。
論文 参考訳(メタデータ) (2021-09-04T20:57:05Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - S3NAS: Fast NPU-aware Neural Architecture Search Methodology [2.607400740040335]
S3NASと呼ばれる高速なNPU対応NAS手法を提案し,既存のNASよりも高精度なCNNアーキテクチャを提案する。
TPUv3を使って3時間でネットワークを見つけることができ、11.66ミリ秒のレイテンシでImageNetの82.72%のトップ1の精度を示している。
論文 参考訳(メタデータ) (2020-09-04T04:45:50Z) - TF-NAS: Rethinking Three Search Freedoms of Latency-Constrained
Differentiable Neural Architecture Search [85.96350089047398]
本研究では,3自由度NAS(TF-NAS)を提案する。
特に,検索したTF-NAS-Aは76.9%のTop-1精度を示し,レイテンシを低減した最新結果が得られる。
論文 参考訳(メタデータ) (2020-08-12T13:44:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。