論文の概要: BEVPoolv2: A Cutting-edge Implementation of BEVDet Toward Deployment
- arxiv url: http://arxiv.org/abs/2211.17111v1
- Date: Wed, 30 Nov 2022 15:55:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 17:25:41.797916
- Title: BEVPoolv2: A Cutting-edge Implementation of BEVDet Toward Deployment
- Title(参考訳): BEVPoolv2: デプロイに向けたBEVDetの最先端実装
- Authors: Junjie Huang and Guan Huang
- Abstract要約: 私たちはブランチdev2.0と呼ばれるBEVDetの新バージョンをリリースしました。
工学最適化の観点から,ビュー変換プロセスのBEVPoolv2のアップグレードを提案する。
0.82ミリ秒以内で処理でき、以前の最速実装の15.1倍の640x1600の大規模な入力解像度を持つ。
- 参考スコア(独自算出の注目度): 14.11339105810819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We release a new codebase version of the BEVDet, dubbed branch dev2.0. With
dev2.0, we propose BEVPoolv2 upgrade the view transformation process from the
perspective of engineering optimization, making it free from a huge burden in
both calculation and storage aspects. It achieves this by omitting the
calculation and preprocessing of the large frustum feature. As a result, it can
be processed within 0.82 ms even with a large input resolution of 640x1600,
which is 15.1 times the previous fastest implementation. Besides, it is also
less cache consumptive when compared with the previous implementation,
naturally as it no longer needs to store the large frustum feature. Last but
not least, this also makes the deployment to the other backend handy. We offer
an example of deployment to the TensorRT backend in branch dev2.0 and show how
fast the BEVDet paradigm can be processed on it. Other than BEVPoolv2, we also
select and integrate some substantial progress that was proposed in the past
year. As an example configuration, BEVDet4D-R50-Depth-CBGS scores 52.3 NDS on
the NuScenes validation set and can be processed at a speed of 16.4 FPS with
the PyTorch backend. The code has been released to facilitate the study on
https://github.com/HuangJunJie2017/BEVDet/tree/dev2.0.
- Abstract(参考訳): 私たちは、branch dev2.0と呼ばれるbevdetの新しいコードベースバージョンをリリースします。
dev2.0では、エンジニアリング最適化の観点からビュー変換プロセスをBEVPoolv2にアップグレードし、計算とストレージの両面で大きな負担から解放する。
これは大きなフラスタム特徴の計算と前処理を省略することで実現される。
その結果、以前の最速実装の15.1倍の640x1600の大規模な入力解像度でも0.82ミリ秒以内で処理できる。
さらに、大きなフラスタム機能を格納する必要がなくなったため、以前の実装と比較してキャッシュ消費も少なくなっている。
最後に重要なのは、他のバックエンドへのデプロイも便利だ。
我々は、ブランチdev2.0のTensorRTバックエンドへのデプロイの例を示し、BEVDetパラダイムの処理速度を示す。
bevpoolv2以外にも,昨年提案されていた重要な進歩をいくつか選択して統合しています。
例として、BEVDet4D-R50-Depth-CBGSはNuScenes検証セットで52.3 NDSを記録し、PyTorchバックエンドで16.4 FPSで処理できる。
コードはhttps://github.com/huangjunjie2017/bevdet/tree/dev2.0の研究を容易にするためにリリースされた。
関連論文リスト
- Shallow Cross-Encoders for Low-Latency Retrieval [69.06104373460597]
BERTやT5のような大きなトランスフォーマーモデルに基づくクロスエンコーダは計算コストが高く、非常に小さな遅延ウィンドウ内で少数の文書しかスコアできない。
より弱い浅層変圧器モデル(すなわち、層数が限られている変圧器)は、これらの実用的な低レイテンシ設定に制約された場合、実際にフルスケールモデルよりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-03-29T15:07:21Z) - PockEngine: Sparse and Efficient Fine-tuning in a Pocket [62.955793932377524]
さまざまなエッジデバイスで微調整が可能な,小型でスパースで効率的なエンジンであるPockEngineを紹介します。
PockEngineはスパースバックプロパゲーションをサポートし、測定メモリの節約とレイテンシの削減でモデルをスパース更新する。
注目すべきなのは、PockEngineはNVIDIA Jetson AGX OrinのLLaMav2-7Bを550トークン/秒で微調整できることだ。
論文 参考訳(メタデータ) (2023-10-26T19:46:11Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based Relocalization [81.76044207714637]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - InceptionNeXt: When Inception Meets ConvNeXt [167.61042926444105]
IncepitonNeXtと呼ばれる一連のネットワークを構築し、高いスループットを享受するだけでなく、競争性能も維持しています。
InceptionNeXtはConvNeX-Tよりも1.6倍高いトレーニングスループットを実現し、ImageNet-1Kでは0.2%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-03-29T17:59:58Z) - SantaCoder: don't reach for the stars! [27.050410834027705]
BigCodeプロジェクトは、コードのための大規模言語モデルの責任ある開発に取り組んでいる、オープン・サイエンティフィックなコラボレーションである。
The StackのJava,JavaScript,Pythonサブセットで1.1Bパラメータモデルをトレーニングし,MultiPL-Eのテキスト・トゥ・コードベンチマークで評価する。
私たちの最良のモデルは、MultiPL-EのJava、JavaScript、Pythonの各部分の左から右への生成とインフィルで、以前のオープンソース多言語コード生成モデルより優れています。
論文 参考訳(メタデータ) (2023-01-09T10:52:35Z) - SegNeXt: Rethinking Convolutional Attention Design for Semantic
Segmentation [100.89770978711464]
セマンティックセグメンテーションのための単純な畳み込みネットワークアーキテクチャであるSegNeXtを提案する。
コンボリューションアテンションは、トランスフォーマーの自己認識メカニズムよりも、文脈情報をエンコードするより効率的で効果的な方法であることを示す。
論文 参考訳(メタデータ) (2022-09-18T14:33:49Z) - Deep Patch Visual Odometry [66.8086971254714]
ディープパッチ・ビジュアル・オドメトリー(DPVO)はモノクル・ビジュアル・オドメトリー(VO)のための新しいディープラーニングシステムである
DPVOは、時間にわたってイメージパッチを追跡するように設計された、新しいリカレントネットワークアーキテクチャを使用している。
標準ベンチマークでは、DPVOは、学習に基づく最先端のVOシステムを含む、これまでのすべての作業より優れています。
論文 参考訳(メタデータ) (2022-08-08T04:47:38Z) - Efficient-VDVAE: Less is more [0.0]
我々は、超深度BAEを2.6倍の速度で収束させる修正を提示する。
我々のモデルは、現在の最先端モデルよりも、同等またはより優れた負のログライクチュア性能を達成する。
我々は、階層型VAEの潜在空間次元の約3%が、画像情報のほとんどを符号化するのに十分なものであることを実証的に実証した。
論文 参考訳(メタデータ) (2022-03-25T16:29:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。