論文の概要: Jointly Learning Spatial, Angular, and Temporal Information for Enhanced Lane Detection
- arxiv url: http://arxiv.org/abs/2405.02792v1
- Date: Sun, 5 May 2024 02:12:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 18:20:16.705283
- Title: Jointly Learning Spatial, Angular, and Temporal Information for Enhanced Lane Detection
- Title(参考訳): 拡張車線検出のための空間・角・時間情報の共同学習
- Authors: Muhammad Zeshan Alam,
- Abstract要約: 本稿では,光場画像と新しい深層学習モデルを用いて,空間情報,角情報,時間情報を統合することで,車線検出を向上するための新しい手法を提案する。
提案手法の有効性を改良したCNNアーキテクチャを用いて実証し,従来の手法よりも優れたフォーマンスを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel approach for enhanced lane detection by integrating spatial, angular, and temporal information through light field imaging and novel deep learning models. Utilizing lenslet-inspired 2D light field representations and LSTM networks, our method significantly improves lane detection in challenging conditions. We demonstrate the efficacy of this approach with modified CNN architectures, showing superior per- formance over traditional methods. Our findings suggest this integrated data approach could advance lane detection technologies and inspire new models that leverage these multidimensional insights for autonomous vehicle percep- tion.
- Abstract(参考訳): 本稿では,光場画像と新しい深層学習モデルを用いて,空間情報,角情報,時間情報を統合することで,車線検出を向上するための新しい手法を提案する。
レンズレットにインスパイアされた2次元光電場表現とLSTMネットワークを用いることで,困難条件下での車線検出を大幅に改善する。
提案手法の有効性を改良したCNNアーキテクチャを用いて実証し,従来の手法よりも優れたフォーマンスを示す。
この統合データアプローチは、車線検出技術を進歩させ、これらの多次元洞察を自動運転車のパーセプ・オプションに活用する新しいモデルを生み出す可能性を示唆している。
関連論文リスト
- YOLO-TS: Real-Time Traffic Sign Detection with Enhanced Accuracy Using Optimized Receptive Fields and Anchor-Free Fusion [15.571409945909243]
本稿では,新しいリアルタイムかつ効率的な道路標識検出ネットワーク YOLO-TS を提案する。
このネットワークは,マルチスケール特徴写像の受容場を最適化することにより,性能を著しく向上させる。
我々の革新的な機能融合戦略は、アンカーフリー手法の柔軟性を活用し、精度と速度の両面で顕著な向上を実現している。
論文 参考訳(メタデータ) (2024-10-22T16:19:55Z) - LOID: Lane Occlusion Inpainting and Detection for Enhanced Autonomous Driving Systems [0.0]
本研究では,難易度の高い環境下での車線検出を向上するための2つの革新的なアプローチを提案する。
最初のアプローチであるAug-Segmentは、CULanesのトレーニングデータセットを増強することで、従来のレーン検出モデルを改善する。
第2のアプローチであるLOID Lane Occlusion Inpainting and Detectionは、塗装モデルを用いて、閉鎖された地域の道路環境を再構築する。
論文 参考訳(メタデータ) (2024-08-17T06:55:40Z) - Gear-NeRF: Free-Viewpoint Rendering and Tracking with Motion-aware Spatio-Temporal Sampling [70.34875558830241]
本研究では,シーンをレンダリングする動的領域の階層化モデリングを可能にする意味的セマンティックギアに基づく,時間的(4D)埋め込みの学習方法を提案する。
同時に、ほぼ無償で、当社のトラッキングアプローチは、既存のNeRFベースのメソッドでまだ達成されていない機能である、自由視点(free-view of interest)を可能にします。
論文 参考訳(メタデータ) (2024-06-06T03:37:39Z) - Semantic Information for Object Detection [0.0]
本稿では,インスタンスレベルのアノテーションを付加した画像のデータセットから知識グラフを抽出する新しい手法を提案する。
本稿では,Faster-RCNNおよびDETRオブジェクト検出モデルにおける知識認識再最適化の有効性について検討する。
論文 参考訳(メタデータ) (2023-08-17T13:53:29Z) - DETR4D: Direct Multi-View 3D Object Detection with Sparse Attention [50.11672196146829]
サラウンドビュー画像を用いた3次元物体検出は、自動運転にとって必須の課題である。
マルチビュー画像における3次元オブジェクト検出のためのスパースアテンションと直接特徴クエリを探索するトランスフォーマーベースのフレームワークであるDETR4Dを提案する。
論文 参考訳(メタデータ) (2022-12-15T14:18:47Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Model-inspired Deep Learning for Light-Field Microscopy with Application
to Neuron Localization [27.247818386065894]
光フィールド顕微鏡画像を用いた高速かつ堅牢なソースの3Dローカリゼーションを実現するモデルに基づくディープラーニング手法を提案する。
これは畳み込みスパース符号化問題を効率的に解くディープネットワークを開発することによって実現される。
光場からのほ乳類ニューロンの局在化実験により,提案手法が性能,解釈性,効率の向上をもたらすことが示された。
論文 参考訳(メタデータ) (2021-03-10T16:24:47Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - A Plug-and-play Scheme to Adapt Image Saliency Deep Model for Video Data [54.198279280967185]
本稿では,ビデオデータに対して予め訓練された画像の鮮度深度モデルを弱めに再学習する新しいプラグイン・アンド・プレイ方式を提案する。
本手法は,既訓練画像の深度モデルに適応して高品質な映像の鮮度検出を実現するのに有効である。
論文 参考訳(メタデータ) (2020-08-02T13:23:14Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。