論文の概要: RADACS: Towards Higher-Order Reasoning using Action Recognition in
Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2209.14408v1
- Date: Wed, 28 Sep 2022 20:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 16:43:27.393344
- Title: RADACS: Towards Higher-Order Reasoning using Action Recognition in
Autonomous Vehicles
- Title(参考訳): RADACS:自律走行車における行動認識を用いた高次推論に向けて
- Authors: Alex Zhuang, Eddy Zhou, Quanquan Li, Rowan Dempster, Alikasim
Budhwani, Mohammad Al-Sharman, Derek Rayside, William Melek
- Abstract要約: RADACSと呼ばれる新しい2段階のオンライン行動認識システムを提案する。
RADACSは、アクティブエージェント検出の問題を定式化し、人間の活動認識からアクターとコンテキストの関係についての考えを適応させる。
環境におけるエージェント行動の高次理解が、実際の自動運転車における意思決定をどのように改善するかを実証する。
- 参考スコア(独自算出の注目度): 5.7628456389379
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: When applied to autonomous vehicle settings, action recognition can help
enrich an environment model's understanding of the world and improve plans for
future action. Towards these improvements in autonomous vehicle
decision-making, we propose in this work a novel two-stage online action
recognition system, termed RADACS. RADACS formulates the problem of active
agent detection and adapts ideas about actor-context relations from human
activity recognition in a straightforward two-stage pipeline for action
detection and classification. We show that our proposed scheme can outperform
the baseline on the ICCV2021 Road Challenge dataset and by deploying it on a
real vehicle platform, we demonstrate how a higher-order understanding of agent
actions in an environment can improve decisions on a real autonomous vehicle.
- Abstract(参考訳): 自動運転車の設定に適用すると、行動認識は環境モデルの世界の理解を深め、将来の行動計画を改善するのに役立つ。
本稿では、自動運転車の意思決定におけるこれらの改善に向けて、2段階のオンライン行動認識システムであるRADACSを提案する。
radacsはアクティブエージェント検出の問題を定式化し、アクション検出と分類のための素直な2段階パイプラインにおいて、人間の行動認識からアクタとコンテキストの関係に関するアイデアを適応させる。
提案手法は、ICCV2021ロードチャレンジデータセットのベースラインを上回り、実際の車両プラットフォームにデプロイすることで、環境におけるエージェントアクションの高次理解が実際の自動運転車における意思決定をどのように改善するかを示す。
関連論文リスト
- Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Learning Representative Trajectories of Dynamical Systems via
Domain-Adaptive Imitation [0.0]
ドメイン適応軌道模倣のための深層強化学習エージェントDATIを提案する。
実験の結果,DATIは模擬学習と最適制御のベースライン手法よりも優れていることがわかった。
実世界のシナリオへの一般化は、海上交通における異常な動きパターンの発見を通じて示される。
論文 参考訳(メタデータ) (2023-04-19T15:53:48Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - Domain Knowledge Driven Pseudo Labels for Interpretable Goal-Conditioned
Interactive Trajectory Prediction [29.701029725302586]
目標条件付きフレームワークを用いた共同軌道予測問題について検討する。
本研究では,条件付き変分自動エンコーダ(CVAE)モデルを導入し,異なる相互作用モードを潜在空間に明示的にエンコードする。
KLの消滅を回避する新しい手法を提案し、擬似ラベルを用いた解釈可能な対話型潜在空間を誘導する。
論文 参考訳(メタデータ) (2022-03-28T21:41:21Z) - Audio-Adaptive Activity Recognition Across Video Domains [112.46638682143065]
ドメイン間のばらつきが少なく、どのアクティビティが起こっていないかを確実に示すことができるので、ドメイン適応のためにアクティビティサウンドを活用します。
視覚特徴表現を識別的に調整するオーディオ適応型エンコーダと学習方法を提案する。
また、アクターシフトという新たなタスクを対応するオーディオ・ビジュアル・データセットで導入し、アクターの出現が劇的に変化する状況において、我々の手法に挑戦する。
論文 参考訳(メタデータ) (2022-03-27T08:15:20Z) - Decoder Fusion RNN: Context and Interaction Aware Decoders for
Trajectory Prediction [53.473846742702854]
本稿では,動き予測のための反復的,注意に基づくアプローチを提案する。
Decoder Fusion RNN (DF-RNN) は、リカレント動作エンコーダ、エージェント間マルチヘッドアテンションモジュール、コンテキスト認識デコーダで構成される。
提案手法の有効性をArgoverseモーション予測データセットで検証し,その性能を公開ベンチマークで示す。
論文 参考訳(メタデータ) (2021-08-12T15:53:37Z) - Model Guided Road Intersection Classification [2.9248680865344348]
本研究は,rgb画像からの区間間分類を,教師・生徒の訓練パラダイムに基づく結果向上手法とともに,統合型ニューラルネットワークを用いて検討する。
KITTIデータセットと新しいKITTI-360シーケンスの両方において、最適な入力構成を特定し、異なるネットワークパラメータを評価することを目的とした広範な実験活動により、本手法はフレーム単位の最先端手法よりも優れ、提案手法の有効性が証明された。
論文 参考訳(メタデータ) (2021-04-26T09:15:28Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Improving Movement Predictions of Traffic Actors in Bird's-Eye View
Models using GANs and Differentiable Trajectory Rasterization [12.652210024012374]
自動運転パズルの最も重要なピースの1つは、周囲の交通機関の将来の動きを予測するタスクである。
一方はトップダウンのシーン化と他方はGAN(Generative Adrial Networks)に基づく手法が特に成功したことが示されている。
本稿では,これら2つの方向に基づいて,Aversa-based conditional GANアーキテクチャを提案する。
提案手法を実世界の大規模データセット上で評価し,最先端のGANベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-14T00:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。