論文の概要: An Image-based Approach of Task-driven Driving Scene Categorization
- arxiv url: http://arxiv.org/abs/2103.05920v1
- Date: Wed, 10 Mar 2021 08:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 14:45:42.126022
- Title: An Image-based Approach of Task-driven Driving Scene Categorization
- Title(参考訳): タスク駆動型運転シーン分類のイメージベースアプローチ
- Authors: Shaochi Hu, Hanwei Fan, Biao Gao, XijunZhao and Huijing Zhao
- Abstract要約: 本稿では,弱監督データを用いたタスク駆動運転場面分類手法を提案する。
異なるセマンティック属性のシーンを対比学習によって識別する尺度を学習する。
セマンティックシーン類似性学習とドライビングシーン分類の結果を広範囲に研究した。
- 参考スコア(独自算出の注目度): 7.291979964739049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Categorizing driving scenes via visual perception is a key technology for
safe driving and the downstream tasks of autonomous vehicles.
Traditional methods infer scene category by detecting scene-related objects
or using a classifier that is trained on large datasets of fine-labeled scene
images.
Whereas at cluttered dynamic scenes such as campus or park, human activities
are not strongly confined by rules, and the functional attributes of places are
not strongly correlated with objects. So how to define, model and infer scene
categories is crucial to make the technique really helpful in assisting a robot
to pass through the scene.
This paper proposes a method of task-driven driving scene categorization
using weakly supervised data.
Given a front-view video of a driving scene, a set of anchor points is marked
by following the decision making of a human driver, where an anchor point is
not a semantic label but an indicator meaning the semantic attribute of the
scene is different from that of the previous one.
A measure is learned to discriminate the scenes of different semantic
attributes via contrastive learning, and a driving scene profiling and
categorization method is developed based on that measure.
Experiments are conducted on a front-view video that is recorded when a
vehicle passed through the cluttered dynamic campus of Peking University. The
scenes are categorized into straight road, turn road and alerting traffic. The
results of semantic scene similarity learning and driving scene categorization
are extensively studied, and positive result of scene categorization is 97.17
\% on the learning video and 85.44\% on the video of new scenes.
- Abstract(参考訳): 視覚認識による運転シーンの分類は、安全運転と自動運転車の下流タスクにとって重要な技術である。
従来の手法では、シーン関連オブジェクトを検出したり、細かなラベル付きシーン画像の大きなデータセットでトレーニングされた分類器を用いてシーンカテゴリを推論する。
キャンパスや公園のような散らかったダイナミックなシーンでは、人間の活動はルールによって強く制限されず、場所の機能的特性はオブジェクトと強く相関しない。
そこで、シーンカテゴリーを定義し、モデル化し、推論する方法は、ロボットがシーンを通り抜けるのを助けるのに非常に役立ちます。
本稿では,弱監督データを用いたタスク駆動運転場面分類手法を提案する。
運転シーンのフロントビュービデオを考えると、アンカーポイントのセットは、アンカーポイントがセマンティックラベルではなく、シーンのセマンティック属性を意味するインジケータが前のものと異なる人間のドライバーの意思決定に従うことによってマークされる。
コントラスト学習によって異なる意味的属性のシーンを識別する尺度が学習され、その尺度に基づいて駆動シーンのプロファイリングと分類法が開発された。
実験は、北京大学の混雑したダイナミックなキャンパスを通過した車両が記録されたフロントビューのビデオで行われます。
シーンは、直線道路、ターン道路、警告トラフィックに分類されます。
セマンティックシーンの類似度学習と運転シーンの分類の結果は広く研究され、シーンの分類の結果は学習ビデオで97.17 %、新しいシーンのビデオで85.44 %である。
関連論文リスト
- Generating Human Interaction Motions in Scenes with Text Control [66.74298145999909]
本稿では,デノナイズ拡散モデルに基づくテキスト制御されたシーン認識動作生成手法TeSMoを提案する。
我々のアプローチは、シーンに依存しないテキスト-モーション拡散モデルの事前学習から始まります。
トレーニングを容易にするため,シーン内に注釈付きナビゲーションと対話動作を組み込む。
論文 参考訳(メタデータ) (2024-04-16T16:04:38Z) - Interpretable End-to-End Driving Model for Implicit Scene Understanding [3.4248756007722987]
暗黙的な高次元シーン特徴を抽出するエンド・ツー・エンドのインプリケート・インプリケート・ドライビング・シーン理解(II-DSU)モデルを提案する。
提案手法は,新しい最先端技術を実現し,運転に関連するよりリッチなシーン情報を具現化したシーン特徴を得ることができる。
論文 参考訳(メタデータ) (2023-08-02T14:43:08Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - Learning Road Scene-level Representations via Semantic Region Prediction [11.518756759576657]
自動走行システムにおける2つの重要な課題、すなわち運転意図予測と自我中心画像からの危険物体識別に取り組む。
我々は、シーンレベルの表現は、エゴ車両周辺の交通シーンの高レベルな意味的および幾何学的表現を捉える必要があると論じる。
本稿では,新しい意味領域予測タスクと自動意味領域ラベリングアルゴリズムを用いてシーンレベルの表現を学習する。
論文 参考訳(メタデータ) (2023-01-02T15:13:30Z) - A Dynamic Data Driven Approach for Explainable Scene Understanding [0.0]
シーン理解はコンピュータビジョンの領域において重要なトピックである。
我々は、シーンの活発な説明駆動的理解と分類について考察する。
我々のフレームワークはACUMEN: Active Classification and Understanding Method by Explanation-driven Networksである。
論文 参考訳(メタデータ) (2022-06-18T02:41:51Z) - An Active and Contrastive Learning Framework for Fine-Grained Off-Road
Semantic Segmentation [7.035838394813961]
自動運転車が運転シーンを理解するためには、詳細なラベル付きオフロードセマンティックセマンティックセマンティックセマンティクスが必要である。
オフロードシーンにおける微粒なセマンティックセグメンテーションは通常、あいまいな自然環境のために統一されたカテゴリ定義を持たない。
本研究では,画素単位のラベルに依存しない能動的かつ対照的な学習手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T03:16:31Z) - Fine-Grained Off-Road Semantic Segmentation and Mapping via Contrastive
Learning [7.965964259208489]
道路検出やトラバーサビリティ解析は、移動ロボットが複雑なオフロードシーンを横断するための重要な技術である。
オフロードロボットには、きめ細かいラベルを持つシーンを理解する必要がある。
本研究では,ロボットがオフロードを横断する有意義なシーン理解を実現するための,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T13:23:24Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - Enhancing Unsupervised Video Representation Learning by Decoupling the
Scene and the Motion [86.56202610716504]
アクションカテゴリは、アクションが発生するシーンと非常に関連しているため、モデルが、シーン情報のみを符号化したソリューションに分解する傾向がある。
本稿では,シーンと動き(DSM)を2つの簡単な操作で分離し,動き情報に対するモデル注意がより高いようにすることを提案する。
論文 参考訳(メタデータ) (2020-09-12T09:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。