論文の概要: A Follow-the-Leader Strategy using Hierarchical Deep Neural Networks
with Grouped Convolutions
- arxiv url: http://arxiv.org/abs/2011.07948v4
- Date: Wed, 28 Apr 2021 18:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 21:55:45.018452
- Title: A Follow-the-Leader Strategy using Hierarchical Deep Neural Networks
with Grouped Convolutions
- Title(参考訳): グループ化畳み込みを用いた階層型深層ニューラルネットワークによる追随者戦略
- Authors: Jose Solomon and Francois Charette
- Abstract要約: リーダのタスクは階層型ディープニューラルネットワーク(DNN)のエンドツーエンド駆動モデルを用いて実装される。
モデルはインテリジェンス・プロセッシング・ユニット(IPU)で訓練され、その微粒な計算能力を活用する。
歩行者を追跡する車両の記録が作成され、ウェブで公開されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of following-the-leader is implemented using a hierarchical Deep
Neural Network (DNN) end-to-end driving model to match the direction and speed
of a target pedestrian. The model uses a classifier DNN to determine if the
pedestrian is within the field of view of the camera sensor. If the pedestrian
is present, the image stream from the camera is fed to a regression DNN which
simultaneously adjusts the autonomous vehicle's steering and throttle to keep
cadence with the pedestrian. If the pedestrian is not visible, the vehicle uses
a straightforward exploratory search strategy to reacquire the tracking
objective. The classifier and regression DNNs incorporate grouped convolutions
to boost model performance as well as to significantly reduce parameter count
and compute latency. The models are trained on the Intelligence Processing Unit
(IPU) to leverage its fine-grain compute capabilities in order to minimize
time-to-train. The results indicate very robust tracking behavior on the part
of the autonomous vehicle in terms of its steering and throttle profiles, while
requiring minimal data collection to produce. The throughput in terms of
processing training samples has been boosted by the use of the IPU in
conjunction with grouped convolutions by a factor ~3.5 for training of the
classifier and a factor of ~7 for the regression network. A recording of the
vehicle tracking a pedestrian has been produced and is available on the web.
This is a preprint of an article published in SN Computer Science. The final
authenticated version is available online at:
https://doi.org/https://doi.org/10.1007/s42979-021-00572-1.
- Abstract(参考訳): 階層型ディープニューラルネットワーク(DNN)のエンド・ツー・エンド駆動モデルを用いて,目標歩行者の方向と速度を一致させる。
モデルは分類器DNNを使用して、歩行者がカメラセンサーの視野内にあるかどうかを判断する。
歩行者が存在する場合には、カメラからの映像ストリームを回帰dnnに供給し、自走車のステアリングとスロットルを同時に調整して歩行者とのリズムを維持する。
歩行者が見えない場合、車両は単純な探索探索戦略を使用して追跡目標を再獲得する。
分類器と回帰DNNは、モデル性能を高めるためにグループ化された畳み込みを導入し、パラメータ数と計算遅延を大幅に削減する。
モデルはintelligent processing unit(ipu)でトレーニングされ、その細粒度計算能力を活用して、トレーニングまでの時間を最小限に抑える。
結果は、ステアリングとスロットルプロファイルの面では、自動運転車の非常に堅牢なトラッキング行動を示し、データ収集は最小限に抑えられていることを示している。
トレーニングサンプル処理のスループットは、分類器のトレーニングのための因子 ~3.5 と回帰ネットワークのための因子 ~7 によってグループ化された畳み込みと共に IPU を用いることで向上している。
歩行者を追跡する車両の記録が制作され、ウェブで公開されている。
これはsn computer scienceに掲載された記事のプレプリントです。
最後の認証版は、 https://doi.org/https://doi.org/10.1007/s42979-021-00572-1 でオンラインで入手できる。
関連論文リスト
- Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Autonomous Slalom Maneuver Based on Expert Drivers' Behavior Using
Convolutional Neural Network [0.39146761527401425]
本稿では,畳み込みニューラルネットワーク(CNN)を用いたドライバの動作を模倣する手法を提案する。
CNNモデルは所望のハンドル角度を計算し、適応的なPDコントローラに送信する。
いくつかの試験では、提案手法は専門家のドライバーよりもスムーズな操作を行った。
論文 参考訳(メタデータ) (2023-01-18T10:47:43Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - Pedestrian Detection: Domain Generalization, CNNs, Transformers and
Beyond [82.37430109152383]
その結果、現在の歩行者検知器は、クロスデータセット評価において、たとえ小さな領域シフトであっても処理が不十分であることがわかった。
限定的な一般化は、その方法と現在のデータ源の2つの主要な要因に帰着する。
本稿では、一般化を改善する進歩的な微調整戦略を提案する。
論文 参考訳(メタデータ) (2022-01-10T06:00:26Z) - Automatic Extraction of Road Networks from Satellite Images by using
Adaptive Structural Deep Belief Network [0.0]
本研究では,ロードトラッカーと呼ばれる道路網の自動認識手法に適用する。
RoadTracerは航空写真データから地上の道路地図を生成することができる。
精度と計算時間を改善するため,我々のAdaptive DBNはCNNの代わりにRoadTracer上に実装された。
論文 参考訳(メタデータ) (2021-10-25T07:06:10Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - Spatio-Temporal Look-Ahead Trajectory Prediction using Memory Neural
Network [6.065344547161387]
本論文では,記憶神経ネットワークと呼ばれる新しい繰り返しニューラルネットワークを用いて,時空間的視線軌道予測の問題を解くことを試みる。
提案手法は計算量が少なく,LSTMやGRUを用いた他のディープラーニングモデルと比較すると,単純なアーキテクチャである。
論文 参考訳(メタデータ) (2021-02-24T05:02:19Z) - An Improved Deep Convolutional Neural Network-Based Autonomous Road
Inspection Scheme Using Unmanned Aerial Vehicles [12.618653234201089]
この研究は、改良された畳み込みニューラルネットワーク(CNN)モデルであり、道路のクラック、ポットホール、黄色のレーンを検出するための実装である。
黄色の車線検出・追跡の目的は、WIFIまたは5G媒体を介して、道路の亀裂や穴を検知・報告しながら、黄色い車線を追従し、無人航空機(UAV)の自律航法を実現することである。
論文 参考訳(メタデータ) (2020-08-14T04:35:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。