論文の概要: LaneSegNet Design Study
- arxiv url: http://arxiv.org/abs/2406.15946v1
- Date: Sat, 22 Jun 2024 21:49:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 19:53:14.091052
- Title: LaneSegNet Design Study
- Title(参考訳): LaneSegNet設計研究
- Authors: William Stevens, Vishal Urs, Karthik Selvaraj, Gabriel Torres, Gaurish Lakhanpal,
- Abstract要約: LaneSegNetは、トポロジ情報とレーンラインデータを統合する、レーントポロジ予測の新しいアプローチである。
本研究では,特徴抽出器とトランスフォーマーエンコーダ-デコーダスタック修正によるLaneSegNetアーキテクチャの最適化について検討する。
我々の実装は1つのNVIDIA Tesla A100 GPUでトレーニングされ、2:4比でトレーニング時間を22.3%削減し、平均精度は7.1%低下した。
4:8比はトレーニング時間をわずか11.1%増加させたが、平均精度は23.7%向上した。
- 参考スコア(独自算出の注目度): 0.41942958779358663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing prevalence of autonomous vehicles, it is essential for computer vision algorithms to accurately assess road features in real-time. This study explores the LaneSegNet architecture, a new approach to lane topology prediction which integrates topological information with lane-line data to provide a more contextual understanding of road environments. The LaneSegNet architecture includes a feature extractor, lane encoder, lane decoder, and prediction head, leveraging components from ResNet-50, BEVFormer, and various attention mechanisms. We experimented with optimizations to the LaneSegNet architecture through feature extractor modification and transformer encoder-decoder stack modification. We found that modifying the encoder and decoder stacks offered an interesting tradeoff between training time and prediction accuracy, with certain combinations showing promising results. Our implementation, trained on a single NVIDIA Tesla A100 GPU, found that a 2:4 ratio reduced training time by 22.3% with only a 7.1% drop in mean average precision, while a 4:8 ratio increased training time by only 11.1% but improved mean average precision by a significant 23.7%. These results indicate that strategic hyperparameter tuning can yield substantial improvements depending on the resources of the user. This study provides valuable insights for optimizing LaneSegNet according to available computation power, making it more accessible for users with limited resources and increasing the capabilities for users with more powerful resources.
- Abstract(参考訳): 自動運転車の普及に伴い、コンピュータビジョンアルゴリズムはリアルタイムで道路の特徴を正確に評価することが不可欠である。
本研究では,車線情報と車線データを統合して道路環境をより文脈的に理解する,車線トポロジー予測の新しいアプローチであるレーンセグネットアーキテクチャについて検討する。
LaneSegNetアーキテクチャには、機能抽出器、レーンエンコーダ、レーンデコーダ、予測ヘッドが含まれており、ResNet-50、BEVFormer、および様々な注意機構のコンポーネントを活用している。
特徴抽出器およびトランスフォーマーエンコーダ-デコーダスタック修正によるLaneSegNetアーキテクチャの最適化実験を行った。
エンコーダスタックとデコーダスタックを変更することで、トレーニング時間と予測精度の間に興味深いトレードオフが生じ、いくつかの組み合わせが有望な結果を示していることがわかった。
我々の実装は1台のNVIDIA Tesla A100 GPUでトレーニングされ、2:4の比率でトレーニング時間を22.3%削減し、平均的精度は7.1%しか低下せず、4:8の比率でトレーニング時間を11.1%向上しなかったが、平均的精度は23.7%向上した。
これらの結果から, 戦略的ハイパーパラメータチューニングは, 利用者の資源によって大幅に改善される可能性が示唆された。
この研究は、利用可能な計算能力に応じてLaneSegNetを最適化し、限られたリソースを持つユーザにとってよりアクセスしやすくし、より強力なリソースを持つユーザの能力を高めるための貴重な洞察を提供する。
関連論文リスト
- Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Collaborative Learning with a Drone Orchestrator [79.75113006257872]
インテリジェントな無線デバイス群は、ドローンの助けを借りて共有ニューラルネットワークモデルを訓練する。
提案したフレームワークは,トレーニングの大幅な高速化を実現し,ドローンホバリング時間の平均24%と87%の削減を実現している。
論文 参考訳(メタデータ) (2023-03-03T23:46:25Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - The AI Mechanic: Acoustic Vehicle Characterization Neural Networks [1.8275108630751837]
我々は,モバイルデバイスから取得した音声を用いて,音響車両の特徴的深層学習システムであるAIメカニックを紹介する。
我々は、故障検出を強化するために車両特性を予測し、カスケードする畳み込みニューラルネットワークを構築している。
我々のカスケーディングアーキテクチャは、さらに93.6%の検証と86.8%のテストセットの正確さを達成し、16.4%/7.8%と4.2%/1.5%のマージンを示した。
論文 参考訳(メタデータ) (2022-05-19T16:29:26Z) - Predicting highway lane-changing maneuvers: A benchmark analysis of
machine and ensemble learning algorithms [0.0]
異なる機械学習とアンサンブル学習の分類手法をルールベースモデルと比較する。
速度の遅い車線から速い車線まで) と折りたたみ式の2種類の車線変更操作を予測した。
もしルールベースのモデルが、特に折りたたみの場合の予測精度に制限を与えているなら、モデリングバイアスを欠いたデータベースのアルゴリズムは、大幅な予測改善を可能にします。
論文 参考訳(メタデータ) (2022-04-20T22:55:59Z) - HybridNets: End-to-End Perception Network [1.4287758028119788]
本稿では,マルチタスクのためのエンド・ツー・エンドの知覚ネットワークを体系的に研究する。
交通物体検出, 乾燥領域分割, レーン検出を同時に行うHybridNets という, マルチタスクを実現するエンド・ツー・エンドの知覚ネットワークを開発した。
論文 参考訳(メタデータ) (2022-03-17T02:29:12Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Predicting the Time Until a Vehicle Changes the Lane Using LSTM-based
Recurrent Neural Networks [0.5399800035598186]
本稿では,高速道路における周辺車両の車線変更時期を正確に予測するシステムの開発について述べる。
大規模な実世界のデータセットに基づく評価は、最も困難な状況であっても、我々のアプローチが信頼できる予測を行うことができることを示している。
論文 参考訳(メタデータ) (2021-02-02T11:04:22Z) - Res-GCNN: A Lightweight Residual Graph Convolutional Neural Networks for
Human Trajectory Forecasting [0.0]
ペデストリアンの対話的挙動をモデル化した残差グラフ畳み込みニューラルネットワーク(Res-GCNN)を提案する。
その結果、最終変位誤差(FDE)が0.65mに達すると、アートの状態を13.3%改善することが示された。
コードはGitHubで公開されている。
論文 参考訳(メタデータ) (2020-11-18T11:18:16Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。