論文の概要: IDE-Net: Interactive Driving Event and Pattern Extraction from Human
Data
- arxiv url: http://arxiv.org/abs/2011.02403v1
- Date: Wed, 4 Nov 2020 16:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 21:47:59.789751
- Title: IDE-Net: Interactive Driving Event and Pattern Extraction from Human
Data
- Title(参考訳): IDE-Net:人間データからの対話型駆動イベントとパターン抽出
- Authors: Xiaosong Jia, Liting Sun, Masayoshi Tomizuka, Wei Zhan
- Abstract要約: 本稿では,対話型イベントとパターン抽出ネットワーク(IDE-Net)を提案し,対話型イベントとパターンを自動的に抽出する。
IDE-Netは、車両軌道からイベントやパターンを直接抽出するディープラーニングフレームワークである。
インタラクションの3つの解釈可能なパターンを見つけ、ドライバーの行動表現、モデリング、理解のための洞察をもたらす。
- 参考スコア(独自算出の注目度): 35.473428772961235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles (AVs) need to share the road with multiple, heterogeneous
road users in a variety of driving scenarios. It is overwhelming and
unnecessary to carefully interact with all observed agents, and AVs need to
determine whether and when to interact with each surrounding agent. In order to
facilitate the design and testing of prediction and planning modules of AVs,
in-depth understanding of interactive behavior is expected with proper
representation, and events in behavior data need to be extracted and
categorized automatically. Answers to what are the essential patterns of
interactions are also crucial for these motivations in addition to answering
whether and when. Thus, learning to extract interactive driving events and
patterns from human data for tackling the whether-when-what tasks is of
critical importance for AVs. There is, however, no clear definition and
taxonomy of interactive behavior, and most of the existing works are based on
either manual labelling or hand-crafted rules and features. In this paper, we
propose the Interactive Driving event and pattern Extraction Network (IDE-Net),
which is a deep learning framework to automatically extract interaction events
and patterns directly from vehicle trajectories. In IDE-Net, we leverage the
power of multi-task learning and proposed three auxiliary tasks to assist the
pattern extraction in an unsupervised fashion. We also design a unique
spatial-temporal block to encode the trajectory data. Experimental results on
the INTERACTION dataset verified the effectiveness of such designs in terms of
better generalizability and effective pattern extraction. We find three
interpretable patterns of interactions, bringing insights for driver behavior
representation, modeling and comprehension. Both objective and subjective
evaluation metrics are adopted in our analysis of the learned patterns.
- Abstract(参考訳): 自動運転車(AV)は、様々な運転シナリオにおいて、複数の異種道路利用者と道路を共有する必要がある。
全ての観察されたエージェントと慎重に相互作用することは圧倒的で不要であり、AVは周囲のエージェントといつ相互作用するかを判断する必要がある。
AVの予測・計画モジュールの設計・テストを容易にするため、対話行動の詳細な理解は適切な表現によって期待され、行動データのイベントを自動的に抽出・分類する必要がある。
相互作用の本質的なパターンに対する回答は、これらのモチベーションには欠かせないだけでなく、いつ答えるにも不可欠である。
したがって、人間データからインタラクティブな運転イベントやパターンを抽出する学習は、avにとって重要なタスクであるかどうかを問う。
しかし、対話行動の定義や分類は明確ではなく、既存の作品の多くは手作業によるラベリングや手作業によるルールや特徴に基づいている。
本稿では,車両軌道から対話イベントやパターンを直接抽出するディープラーニングフレームワークであるInteractive Driving Event and Pattern extract Network (IDE-Net)を提案する。
IDE-Netでは、マルチタスク学習のパワーを活用し、教師なしの方法でパターン抽出を支援する3つの補助タスクを提案する。
また、軌道データを符号化する独自の時空間ブロックを設計する。
InterACTIONデータセットの実験結果は、より優れた一般化性と効果的なパターン抽出の観点から、そのような設計の有効性を検証した。
インタラクションの3つの解釈可能なパターンを見つけ、ドライバーの行動表現、モデリング、理解のための洞察をもたらす。
客観的評価指標と主観的評価指標の両方を学習パターンの分析に適用した。
関連論文リスト
- DeepInteraction++: Multi-Modality Interaction for Autonomous Driving [80.8837864849534]
我々は,モダリティごとの個別表現を学習し,維持することのできる,新しいモダリティインタラクション戦略を導入する。
DeepInteraction++はマルチモーダルなインタラクション・フレームワークであり、マルチモーダルな表現型インタラクション・エンコーダとマルチモーダルな予測型インタラクション・デコーダを特徴とする。
実験では,3次元物体検出とエンドツーエンドの自律走行の両方において,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-09T14:04:21Z) - GraphAD: Interaction Scene Graph for End-to-end Autonomous Driving [16.245949174447574]
我々は,エゴ車両,道路エージェント,地図要素間の相互作用をモデル化するための統合手法として,インタラクションシーングラフ(ISG)を提案する。
提案手法をnuScenesデータセット上で評価した。
論文 参考訳(メタデータ) (2024-03-28T02:22:28Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Pixel State Value Network for Combined Prediction and Planning in
Interactive Environments [9.117828575880303]
本研究は,予測と計画を組み合わせた深層学習手法を提案する。
U-Netアーキテクチャを持つ条件付きGANは、2つの高解像度画像シーケンスを予測するために訓練される。
結果は、対立する目的の中で車線の変化のような複雑な状況において直感的な行動を示す。
論文 参考訳(メタデータ) (2023-10-11T17:57:13Z) - RSG-Net: Towards Rich Sematic Relationship Prediction for Intelligent
Vehicle in Complex Environments [72.04891523115535]
本稿では,オブジェクトの提案から潜在的意味関係を予測するグラフ畳み込みネットワークRSG-Netを提案する。
実験の結果、このネットワークはロードシーングラフデータセットに基づいてトレーニングされており、エゴ車両周辺のオブジェクト間の潜在的な意味関係を効率的に予測できることがわかった。
論文 参考訳(メタデータ) (2022-07-16T12:40:17Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - SCOUT: Socially-COnsistent and UndersTandable Graph Attention Network
for Trajectory Prediction of Vehicles and VRUs [0.0]
SCOUTは、グラフとしてシーンの柔軟で汎用的な表現を使用する新しい注意ベースのグラフニューラルネットワークです。
我々は3つの異なる注意メカニズムを探索し,鳥眼視と車載都市データを用いてそのスキームをテストする。
RounDデータセットの全く新しいシナリオでテストすることにより、モデルの柔軟性と転送性を評価します。
論文 参考訳(メタデータ) (2021-02-12T06:29:28Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Pedestrian Behavior Prediction via Multitask Learning and Categorical
Interaction Modeling [13.936894582450734]
マルチモーダルデータに頼って歩行者の軌跡や行動を同時に予測するマルチタスク学習フレームワークを提案する。
本モデルでは, トラジェクティブと動作予測を最大22%, 6%向上させる。
論文 参考訳(メタデータ) (2020-12-06T15:57:11Z) - Interaction-Based Trajectory Prediction Over a Hybrid Traffic Graph [4.574413934477815]
本稿では,トラフィックアクタと静的および動的トラフィック要素の両方をノードが表現するハイブリッドグラフを提案する。
アクターとトラフィック要素間の時間的相互作用(例えば、停止と移動)の異なるモードは、グラフエッジによって明示的にモデル化される。
提案するモデルであるTrafficGraphNetは,高いレベルの解釈性を維持しつつ,最先端の軌道予測精度を実現する。
論文 参考訳(メタデータ) (2020-09-27T18:20:03Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。