論文の概要: Semantically Controllable Scene Generation with Guidance of Explicit
Knowledge
- arxiv url: http://arxiv.org/abs/2106.04066v1
- Date: Tue, 8 Jun 2021 02:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 07:09:06.431551
- Title: Semantically Controllable Scene Generation with Guidance of Explicit
Knowledge
- Title(参考訳): 明示的知識の指導による意味制御可能なシーン生成
- Authors: Wenhao Ding, Bo Li, Kim Ji Eun, Ding Zhao
- Abstract要約: 本稿では,ドメイン知識をテキスト的に生成プロセスに組み込む新しい手法を提案する。
複雑なシーン表現を学習するための木構造生成モデルを提案する。
本手法は, 異なる最先端3Dポイントクラウドセグメンテーションモデルに対して, 対向的なトラフィックシーンを効率よく同定する。
- 参考スコア(独自算出の注目度): 25.139774604219603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Generative Models (DGMs) are known for their superior capability in
generating realistic data. Extending purely data-driven approaches, recent
specialized DGMs may satisfy additional controllable requirements such as
embedding a traffic sign in a driving scene, by manipulating patterns
\textit{implicitly} in the neuron or feature level. In this paper, we introduce
a novel method to incorporate domain knowledge \textit{explicitly} in the
generation process to achieve semantically controllable scene generation. We
categorize our knowledge into two types to be consistent with the composition
of natural scenes, where the first type represents the property of objects and
the second type represents the relationship among objects. We then propose a
tree-structured generative model to learn complex scene representation, whose
nodes and edges are naturally corresponding to the two types of knowledge
respectively. Knowledge can be explicitly integrated to enable semantically
controllable scene generation by imposing semantic rules on properties of nodes
and edges in the tree structure. We construct a synthetic example to illustrate
the controllability and explainability of our method in a clean setting. We
further extend the synthetic example to realistic autonomous vehicle driving
environments and conduct extensive experiments to show that our method
efficiently identifies adversarial traffic scenes against different
state-of-the-art 3D point cloud segmentation models satisfying the traffic
rules specified as the explicit knowledge.
- Abstract(参考訳): 深部生成モデル(DGM)は、現実的なデータを生成する優れた能力で知られている。
純粋にデータ駆動アプローチを拡張するため、最近の特殊なDGMは、運転シーンに交通標識を埋め込むなど、ニューロンや機能レベルでパターンを操作することで、制御可能な追加要件を満たすことができる。
本稿では,意味的に制御可能なシーン生成を実現するために,生成プロセスにドメイン知識 \textit{explicitly} を組み込む新しい手法を提案する。
そこで,本研究では,2種類の知識を自然シーンの合成と整合性に分類し,第1のタイプがオブジェクトの特性を表し,第2のタイプがオブジェクト間の関係を表す。
次に,ノードとエッジがそれぞれ2種類の知識に対応している複雑なシーン表現を学習するための木構造生成モデルを提案する。
知識を明示的に統合することで、ツリー構造内のノードとエッジのプロパティにセマンティックルールを付与することで、セマンティック制御可能なシーン生成を可能にする。
クリーンな環境下での制御性と説明可能性を示すための合成例を構築した。
さらに, 現実的な自動運転車走行環境への合成例を拡張し, 提案手法が明示的な知識として規定された交通ルールを満たす3Dポイントクラウドセグメンテーションモデルに対して, 敵の交通シーンを効果的に識別することを示した。
関連論文リスト
- Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - Graph-based Topology Reasoning for Driving Scenes [102.35885039110057]
TopoNetは、従来の知覚タスクを超えてトラフィック知識を抽象化できる最初のエンドツーエンドフレームワークである。
TopoNetを,難解なシーン理解ベンチマークOpenLane-V2で評価した。
論文 参考訳(メタデータ) (2023-04-11T15:23:29Z) - Unsupervised Self-Driving Attention Prediction via Uncertainty Mining
and Knowledge Embedding [51.8579160500354]
本研究では、不確実性モデリングと知識統合の駆動による自動運転の注意を予測できる教師なし手法を提案する。
結果は、完全に教師された最先端のアプローチと比較して、同等またはさらに印象的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-17T00:28:33Z) - Towards Explainable Motion Prediction using Heterogeneous Graph
Representations [3.675875935838632]
動き予測システムは、自動運転車が安全かつ効率的な計画を実行できるようにする交通シナリオの将来の挙動を捉えることを目的としている。
GNNベースのアプローチは、これらの相互作用を自然にモデル化するのに適しているため、近年注目を集めている。
本研究では,異なるアプローチを用いて動作予測システムの説明可能性を向上させることを目的とする。
論文 参考訳(メタデータ) (2022-12-07T17:43:42Z) - Guided Conditional Diffusion for Controllable Traffic Simulation [42.198185904248994]
制御可能で現実的な交通シミュレーションは、自動運転車の開発と検証に不可欠である。
データ駆動アプローチは現実的で人間的な振る舞いを生成し、シミュレートされたトラフィックから現実のトラフィックへの移行を改善する。
本研究では,制御可能なトラヒック生成(CTG)のための条件拡散モデルを構築し,テスト時に所望のトラジェクトリ特性を制御できるようにする。
論文 参考訳(メタデータ) (2022-10-31T14:44:59Z) - Domain Knowledge Driven Pseudo Labels for Interpretable Goal-Conditioned
Interactive Trajectory Prediction [29.701029725302586]
目標条件付きフレームワークを用いた共同軌道予測問題について検討する。
本研究では,条件付き変分自動エンコーダ(CVAE)モデルを導入し,異なる相互作用モードを潜在空間に明示的にエンコードする。
KLの消滅を回避する新しい手法を提案し、擬似ラベルを用いた解釈可能な対話型潜在空間を誘導する。
論文 参考訳(メタデータ) (2022-03-28T21:41:21Z) - Transferable and Adaptable Driving Behavior Prediction [34.606012573285554]
本研究では,運転行動に対して高品質で伝達可能で適応可能な予測を生成する階層型フレームワークであるHATNを提案する。
我々は,交差点における実交通データの軌跡予測と,インターActionデータセットからのラウンドアバウンドのタスクにおいて,我々のアルゴリズムを実証する。
論文 参考訳(メタデータ) (2022-02-10T16:46:24Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - PathGAN: Local Path Planning with Attentive Generative Adversarial
Networks [0.0]
本稿では,自動運転車の自我中心画像から可塑性経路を生成できるモデルを提案する。
我々の生成モデルは、特徴抽出ネットワーク(FEN)と経路生成ネットワーク(PGN)の2つのニューラルネットワークからなる。
また、記録されたセンサデータを個別のハイレベルな運転動作でラベル付けした自律運転用データセットであるETRIDrivingを紹介した。
論文 参考訳(メタデータ) (2020-07-08T03:31:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。