論文の概要: BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments
- arxiv url: http://arxiv.org/abs/2010.03523v3
- Date: Sun, 23 May 2021 15:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 23:08:17.603624
- Title: BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments
- Title(参考訳): BoMuDANet:非構造化運転環境における視覚シーン理解のための教師なし適応
- Authors: Divya Kothandaraman, Rohan Chandra, Dinesh Manocha
- Abstract要約: 非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
- 参考スコア(独自算出の注目度): 54.22535063244038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an unsupervised adaptation approach for visual scene understanding
in unstructured traffic environments. Our method is designed for unstructured
real-world scenarios with dense and heterogeneous traffic consisting of cars,
trucks, two-and three-wheelers, and pedestrians. We describe a new semantic
segmentation technique based on unsupervised domain adaptation (DA), that can
identify the class or category of each region in RGB images or videos. We also
present a novel self-training algorithm (Alt-Inc) for multi-source DA that
improves the accuracy. Our overall approach is a deep learning-based technique
and consists of an unsupervised neural network that achieves 87.18% accuracy on
the challenging India Driving Dataset. Our method works well on roads that may
not be well-marked or may include dirt, unidentifiable debris, potholes, etc. A
key aspect of our approach is that it can also identify objects that are
encountered by the model for the fist time during the testing phase. We compare
our method against the state-of-the-art methods and show an improvement of
5.17% - 42.9%. Furthermore, we also conduct user studies that qualitatively
validate the improvements in visual scene understanding of unstructured driving
environments.
- Abstract(参考訳): 非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
本稿では,rgb画像やビデオ中の各領域のクラスやカテゴリを識別可能な,教師なしドメイン適応(da)に基づく新しい意味セグメンテーション手法について述べる。
また,マルチソースDAのための新たな自己学習アルゴリズム(Alt-Inc)を提案する。
私たちのアプローチ全体はディープラーニングベースのテクニックで、インド運転データセットの課題に対して87.18%の精度を達成する教師なしニューラルネットワークで構成されています。
本手法は, 未舗装の道路や, 未確認の破片, ポットホールなどを含む道路で有効に機能する。
私たちのアプローチの重要な側面は、テストフェーズ中にモデルが遭遇するオブジェクトをfistタイムで識別できることです。
本手法を最先端手法と比較し,5.17%から42.9%の改善を示した。
さらに,非構造化運転環境における視覚環境理解の改善を定性的に検証するユーザ研究も行う。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Improving classification of road surface conditions via road area extraction and contrastive learning [2.9109581496560044]
画像中の道路面に下流分類モデルのみを集中させるセグメンテーションモデルを導入する。
公開RTKデータセットに対する実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2024-07-19T15:43:16Z) - S4C: Self-Supervised Semantic Scene Completion with Neural Fields [54.35865716337547]
3Dセマンティックシーン理解はコンピュータビジョンにおける根本的な課題である。
SSCの現在の手法は、集約されたLiDARスキャンに基づいて、一般に3D地上真実に基づいて訓練されている。
本研究は,S4Cと呼ばれる3次元地上真理データに依存しないSSCに対して,初めての自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-11T14:19:05Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - An Active and Contrastive Learning Framework for Fine-Grained Off-Road
Semantic Segmentation [7.035838394813961]
自動運転車が運転シーンを理解するためには、詳細なラベル付きオフロードセマンティックセマンティックセマンティックセマンティクスが必要である。
オフロードシーンにおける微粒なセマンティックセグメンテーションは通常、あいまいな自然環境のために統一されたカテゴリ定義を持たない。
本研究では,画素単位のラベルに依存しない能動的かつ対照的な学習手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T03:16:31Z) - Model Guided Road Intersection Classification [2.9248680865344348]
本研究は,rgb画像からの区間間分類を,教師・生徒の訓練パラダイムに基づく結果向上手法とともに,統合型ニューラルネットワークを用いて検討する。
KITTIデータセットと新しいKITTI-360シーケンスの両方において、最適な入力構成を特定し、異なるネットワークパラメータを評価することを目的とした広範な実験活動により、本手法はフレーム単位の最先端手法よりも優れ、提案手法の有効性が証明された。
論文 参考訳(メタデータ) (2021-04-26T09:15:28Z) - GANav: Group-wise Attention Network for Classifying Navigable Regions in
Unstructured Outdoor Environments [54.21959527308051]
本稿では,RGB画像から,オフロード地形および非構造環境における安全かつ航行可能な領域を識別する新しい学習手法を提案する。
本手法は,粒度の粗いセマンティックセグメンテーションを用いて,そのナビビリティレベルに基づいて地形分類群を分類する。
RUGD と RELLIS-3D のデータセットを広範囲に評価することにより,我々の学習アルゴリズムがナビゲーションのためのオフロード地形における視覚知覚の精度を向上させることを示す。
論文 参考訳(メタデータ) (2021-03-07T02:16:24Z) - Fine-Grained Off-Road Semantic Segmentation and Mapping via Contrastive
Learning [7.965964259208489]
道路検出やトラバーサビリティ解析は、移動ロボットが複雑なオフロードシーンを横断するための重要な技術である。
オフロードロボットには、きめ細かいラベルを持つシーンを理解する必要がある。
本研究では,ロボットがオフロードを横断する有意義なシーン理解を実現するための,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T13:23:24Z) - Low-latency Perception in Off-Road Dynamical Low Visibility Environments [0.9142067094647588]
本研究は、未舗装道路とオフロード環境に特化した自動運転車と先進運転支援システムを提案する。
未舗装とオフロードの異なる環境の約12,000枚の画像が収集され、ラベルがつけられた。
畳み込みニューラルネットワークを使用して、車が通過可能な障害領域を分割するように訓練しました。
論文 参考訳(メタデータ) (2020-12-23T22:54:43Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。