論文の概要: Solving Scene Understanding for Autonomous Navigation in Unstructured Environments
- arxiv url: http://arxiv.org/abs/2507.20389v1
- Date: Sun, 27 Jul 2025 19:11:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.558165
- Title: Solving Scene Understanding for Autonomous Navigation in Unstructured Environments
- Title(参考訳): 非構造環境における自律ナビゲーションのためのシーン理解の解法
- Authors: Naveen Mathews Renji, Kruthika K, Manasa Keshavamurthy, Pooja Kumari, S. Rajarajeswari,
- Abstract要約: 本稿では,インド運転データセットのセマンティックセグメンテーションを行う。
データセットは、Cityscapesのような他のデータセットよりも難しい。
5つの異なるモデルがトレーニングされ、そのパフォーマンスは、Unionに対する平均インターセクションを使用して比較されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles are the next revolution in the automobile industry and they are expected to revolutionize the future of transportation. Understanding the scenario in which the autonomous vehicle will operate is critical for its competent functioning. Deep Learning has played a massive role in the progress that has been made till date. Semantic Segmentation, the process of annotating every pixel of an image with an object class, is one crucial part of this scene comprehension using Deep Learning. It is especially useful in Autonomous Driving Research as it requires comprehension of drivable and non-drivable areas, roadside objects and the like. In this paper semantic segmentation has been performed on the Indian Driving Dataset which has been recently compiled on the urban and rural roads of Bengaluru and Hyderabad. This dataset is more challenging compared to other datasets like Cityscapes, since it is based on unstructured driving environments. It has a four level hierarchy and in this paper segmentation has been performed on the first level. Five different models have been trained and their performance has been compared using the Mean Intersection over Union. These are UNET, UNET+RESNET50, DeepLabsV3, PSPNet and SegNet. The highest MIOU of 0.6496 has been achieved. The paper discusses the dataset, exploratory data analysis, preparation, implementation of the five models and studies the performance and compares the results achieved in the process.
- Abstract(参考訳): 自動運転車は自動車産業における次の革命であり、交通の未来に革命をもたらすと期待されている。
自動運転車が機能するシナリオを理解することは、その能力に欠かせない。
ディープラーニングは、これまで行われてきた進歩において、大きな役割を果たしてきました。
セマンティックセグメンテーション(Semantic Segmentation)は、画像の各ピクセルにオブジェクトクラスをアノテートするプロセスである。
特に自律運転研究において、乾燥しにくい地域や道路沿いの物体などを理解する必要があるため、特に有用である。
本稿では,バンガルーとハイデラバードの都市部および農村部で最近編纂されたインド・ドライビング・データセットについてセマンティックセグメンテーションを行った。
このデータセットは、構造化されていない運転環境に基づいているため、Cityscapesのような他のデータセットよりも難しい。
階層構造は4段階であり、この論文では1段階のセグメンテーションが実施されている。
5つの異なるモデルがトレーニングされ、そのパフォーマンスは、Unionに対する平均インターセクションを使用して比較されている。
これらは、UNET、UNET+RESNET50、DeepLabsV3、PSPNet、SegNetである。
最も高いMIOUは0.6496である。
本稿では,5つのモデルのデータセット,探索データ解析,準備,実装について論じ,その結果を比較した。
関連論文リスト
- Segment Any Vehicle: Semantic and Visual Context Driven SAM and A Benchmark [12.231630639022335]
SAMベースのエンコーダデコーダ,車両部品知識グラフ,コンテキストサンプル検索符号化モジュールの3つのコアコンポーネントからなる新しいフレームワークであるSAVを提案する。
知識グラフは、構造オントロジーを通じて車両部品間の空間的および幾何学的関係を明示的にモデル化し、事前構造的知識を効果的に符号化する。
我々は,11,665の高品質なピクセルレベルのアノテーションを含む自動車部品セグメンテーションのための大規模ベンチマークデータセット,VabySeg10Kを紹介した。
論文 参考訳(メタデータ) (2025-08-06T09:46:49Z) - Point Cloud Based Scene Segmentation: A Survey [3.0846824529023387]
本稿では、自律運転のためのポイントクラウドセマンティックス分野における最先端手法の概要について述べる。
提案手法はプロジェクションベース,3Dベース,ハイブリッドに分類する。
また,実世界のデータに制限がある場合,研究を支援するための合成データの重要性も強調する。
論文 参考訳(メタデータ) (2025-03-16T18:02:41Z) - Enhancing End-to-End Autonomous Driving with Latent World Model [78.22157677787239]
本稿では,LAW(Latent World Model)を用いたエンドツーエンド運転のための自己教師型学習手法を提案する。
LAWは、現在の特徴とエゴ軌道に基づいて将来のシーン機能を予測する。
この自己監督タスクは、知覚のない、知覚に基づくフレームワークにシームレスに統合することができる。
論文 参考訳(メタデータ) (2024-06-12T17:59:21Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - FedDrive: Generalizing Federated Learning to Semantic Segmentation in
Autonomous Driving [27.781734303644516]
フェデレートラーニングは、プライバシを保持し、何百万ものリモートデバイス上のデータを活用しながら、グローバルモデルを学ぶことを目的としている。
3つの設定と2つのデータセットからなる新しいベンチマークであるFedDriveを提案する。
我々は、詳細な分析を通じて、フェデレートされた学習文献から最先端のアルゴリズムをベンチマークする。
論文 参考訳(メタデータ) (2022-02-28T10:34:31Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - RELLIS-3D Dataset: Data, Benchmarks and Analysis [16.803548871633957]
RELLIS-3Dはオフロード環境で収集されたマルチモーダルデータセットである。
データはテキサスA&M大学のRellis Campusで収集されました。
論文 参考訳(メタデータ) (2020-11-17T18:28:01Z) - IDDA: a large-scale multi-domain dataset for autonomous driving [16.101248613062292]
本稿では,100以上の異なる視覚領域を持つセマンティックセグメンテーションのための大規模合成データセットを提案する。
このデータセットは、さまざまな天候や視点条件下でのトレーニングとテストデータのドメインシフトの課題に明示的に対処するために作成されている。
論文 参考訳(メタデータ) (2020-04-17T15:22:38Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。