論文の概要: NaviSplit: Dynamic Multi-Branch Split DNNs for Efficient Distributed Autonomous Navigation
- arxiv url: http://arxiv.org/abs/2406.13086v1
- Date: Tue, 18 Jun 2024 22:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 23:58:20.489065
- Title: NaviSplit: Dynamic Multi-Branch Split DNNs for Efficient Distributed Autonomous Navigation
- Title(参考訳): Navi Split: 効率的な分散自律ナビゲーションのための動的マルチブランチ分割DNN
- Authors: Timothy K Johnsen, Ian Harshbarger, Zixia Xia, Marco Levorato,
- Abstract要約: NaviSplitは、分散された動的マルチブランチニューラルネットワークを組み込んだ軽量ナビゲーションフレームワークの最初の例である。
本実装では,ロバストなシミュレータであるMicrosoft AirSimを用いて,ドローンが捉えた単眼RGB画像から2次元深度マップを抽出する。
以上の結果から,NaviSplit深度モデルでは72~81%の抽出精度が得られた。
- 参考スコア(独自算出の注目度): 1.7477924189297296
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Lightweight autonomous unmanned aerial vehicles (UAV) are emerging as a central component of a broad range of applications. However, autonomous navigation necessitates the implementation of perception algorithms, often deep neural networks (DNN), that process the input of sensor observations, such as that from cameras and LiDARs, for control logic. The complexity of such algorithms clashes with the severe constraints of these devices in terms of computing power, energy, memory, and execution time. In this paper, we propose NaviSplit, the first instance of a lightweight navigation framework embedding a distributed and dynamic multi-branched neural model. At its core is a DNN split at a compression point, resulting in two model parts: (1) the head model, that is executed at the vehicle, which partially processes and compacts perception from sensors; and (2) the tail model, that is executed at an interconnected compute-capable device, which processes the remainder of the compacted perception and infers navigation commands. Different from prior work, the NaviSplit framework includes a neural gate that dynamically selects a specific head model to minimize channel usage while efficiently supporting the navigation network. In our implementation, the perception model extracts a 2D depth map from a monocular RGB image captured by the drone using the robust simulator Microsoft AirSim. Our results demonstrate that the NaviSplit depth model achieves an extraction accuracy of 72-81% while transmitting an extremely small amount of data (1.2-18 KB) to the edge server. When using the neural gate, as utilized by NaviSplit, we obtain a slightly higher navigation accuracy as compared to a larger static network by 0.3% while significantly reducing the data rate by 95%. To the best of our knowledge, this is the first exemplar of dynamic multi-branched model based on split DNNs for autonomous navigation.
- Abstract(参考訳): 軽量無人航空機(UAV)は、幅広い用途において中心的な役割を担っている。
しかし、自律ナビゲーションは、制御ロジックのためにカメラやLiDARなどのセンサー観測の入力を処理する知覚アルゴリズム(しばしばディープニューラルネットワーク(DNN))の実装を必要とする。
このようなアルゴリズムの複雑さは、計算能力、エネルギー、メモリ、実行時間の点でこれらのデバイスの厳しい制約と衝突する。
本稿では,分散および動的マルチブランチニューラルネットワークを組み込んだ軽量ナビゲーションフレームワークの最初の例であるNaviSplitを提案する。
中心となるDNNは圧縮点で分割され,(1)車両内で実行されるヘッドモデル,(2)センサーからの知覚を部分的に処理し,コンパクト化するテールモデル,2)圧縮された知覚の残りを処理し,ナビゲーションコマンドを推測する相互に接続可能なデバイスで実行されるテールモデル,の2つのモデル部となる。
以前の作業とは異なり、NaviSplitフレームワークには、ナビゲーションネットワークを効率的にサポートしながら、チャネル使用を最小限に抑えるために、特定のヘッドモデルを動的に選択するニューラルネットワークゲートが含まれている。
本実装では,ロバストなシミュレータであるMicrosoft AirSimを用いて,ドローンが捉えた単眼RGB画像から2次元深度マップを抽出する。
以上の結果から,NaviSplit深度モデルでは72~81%の抽出精度が得られ,かつ,極めて少ないデータ(1.2~18KB)をエッジサーバに送信することがわかった。
NaviSplitが使用したニューラルゲートを使用すると、より大きな静的ネットワークに比べてわずかに高いナビゲーション精度が得られるが、データレートは95%減少する。
我々の知る限りでは、これは自律ナビゲーションのための分割DNNに基づく動的マルチブランチモデルの最初の例である。
関連論文リスト
- EvSegSNN: Neuromorphic Semantic Segmentation for Event Data [0.6138671548064356]
EvSegSNN は、Parametric Leaky Integrate と Fire のニューロンに依存した、生物学的に検証可能なエンコーダ-デコーダU字型アーキテクチャである。
本稿では,スパイキングニューラルネットワークとイベントカメラを組み合わせることによって,エンド・ツー・エンドのバイオインスパイアされたセマンティックセマンティックセマンティクス手法を提案する。
DDD17で実施された実験は、EvSegSNNがMIoUの観点から最も近い最先端モデルを上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-20T10:36:24Z) - An Attention-Based Deep Learning Architecture for Real-Time Monocular Visual Odometry: Applications to GPS-free Drone Navigation [0.9558392439655012]
視覚計測の研究は進歩しており、GPSのないナビゲーションの問題を解決する可能性がある。
近年、ディープニューラルネットワーク(DNN)を用いた研究により、性能が向上している。
本稿では,無人機のための一眼一眼視計測モデルを提案する。
論文 参考訳(メタデータ) (2024-04-27T01:22:45Z) - Semantic Segmentation in Satellite Hyperspectral Imagery by Deep Learning [54.094272065609815]
本稿では1D-Justo-LiuNetという軽量な1D-CNNモデルを提案する。
1D-Justo-LiuNetは、全てのテストモデルの中で最小のモデルサイズ (4,563 パラメータ) を持つ最大精度 (0.93) を達成する。
論文 参考訳(メタデータ) (2023-10-24T21:57:59Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Detection-segmentation convolutional neural network for autonomous
vehicle perception [0.0]
物体検出とセグメンテーションは、自動運転車の認識システムの2つの中核モジュールである。
現在最もよく使われているアルゴリズムはディープニューラルネットワークに基づいており、高い効率性を保証するが、高性能なコンピューティングプラットフォームを必要とする。
ネットワークの複雑さの低減は、適切なアーキテクチャ、表現、コンピューティングプラットフォームを使用することで達成できる。
論文 参考訳(メタデータ) (2023-06-30T08:54:52Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - Robust Navigation for Racing Drones based on Imitation Learning and
Modularization [3.616948583169635]
本稿では、認識モジュールにカスタマイズされた畳み込みニューラルネットワーク(CNN)を用いた、視覚に基づくモジュール化されたドローンレースナビゲーションシステムを提案する。
我々は、最先端のプランナーとコントローラを利用して低レベルの制御コマンドを生成し、データベースとモデルベースの両方のアプローチの利点を利用する。
論文 参考訳(メタデータ) (2021-05-27T03:26:40Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Binary DAD-Net: Binarized Driveable Area Detection Network for
Autonomous Driving [94.40107679615618]
本稿では,二項化駆動型領域検出ネットワーク(バイナリDAD-Net)を提案する。
エンコーダ、ボトルネック、デコーダ部分の2重みとアクティベーションのみを使用する。
パブリックデータセット上で、最先端のセマンティックセグメンテーションネットワークより優れています。
論文 参考訳(メタデータ) (2020-06-15T07:09:01Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。