論文の概要: Explainable Object-induced Action Decision for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2003.09405v1
- Date: Fri, 20 Mar 2020 17:33:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 22:53:16.834774
- Title: Explainable Object-induced Action Decision for Autonomous Vehicles
- Title(参考訳): 自律走行車に対する説明可能な物体誘発行動決定
- Authors: Yiran Xu, Xiaoyin Yang, Lihang Gong, Hsuan-Chu Lin, Tz-Ying Wu,
Yunsheng Li, Nuno Vasconcelos
- Abstract要約: 自動運転の新しいパラダイムが提案されている。
それは人間がその問題を解決する方法にインスパイアされている。
この問題を解決するためにCNNアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 53.59781838748779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new paradigm is proposed for autonomous driving. The new paradigm lies
between the end-to-end and pipelined approaches, and is inspired by how humans
solve the problem. While it relies on scene understanding, the latter only
considers objects that could originate hazard. These are denoted as
action-inducing, since changes in their state should trigger vehicle actions.
They also define a set of explanations for these actions, which should be
produced jointly with the latter. An extension of the BDD100K dataset,
annotated for a set of 4 actions and 21 explanations, is proposed. A new
multi-task formulation of the problem, which optimizes the accuracy of both
action commands and explanations, is then introduced. A CNN architecture is
finally proposed to solve this problem, by combining reasoning about action
inducing objects and global scene context. Experimental results show that the
requirement of explanations improves the recognition of action-inducing
objects, which in turn leads to better action predictions.
- Abstract(参考訳): 自動運転の新しいパラダイムが提案されている。
新しいパラダイムはエンドツーエンドとパイプライン化されたアプローチの間にあり、人間が問題を解決する方法に着想を得ている。
シーンの理解に頼っているが、後者は危険を引き起こす可能性のある物体のみを考える。
これらは、状態の変化が車両のアクションをトリガーするので、アクション誘導と表記される。
彼らはまた、これらのアクションの一連の説明を定義し、後者と共同で作成すべきである。
BDD100Kデータセットの拡張(4つのアクションと21の説明のセットに注釈を付ける)が提案されている。
次に,アクションコマンドと説明文の両方の精度を最適化するマルチタスクの新たな定式化を導入する。
CNNアーキテクチャは、アクション誘発オブジェクトとグローバルシーンコンテキストの推論を組み合わせることで、この問題を解決するために最終的に提案されている。
実験結果から,説明の要求は行動誘発物体の認識を改善することが示され,その結果,行動予測の精度が向上した。
関連論文リスト
- ActionCOMET: A Zero-shot Approach to Learn Image-specific Commonsense Concepts about Actions [66.20773952864802]
我々は8.5k画像と59.3k画像に接地されたアクションに関する59.3kの推論からなるデータセットを開発する。
本稿では、提供された視覚入力に特有の言語モデルに存在する知識を識別するフレームワークであるActionCOMETを提案する。
論文 参考訳(メタデータ) (2024-10-17T15:22:57Z) - Towards Explainable Motion Prediction using Heterogeneous Graph
Representations [3.675875935838632]
動き予測システムは、自動運転車が安全かつ効率的な計画を実行できるようにする交通シナリオの将来の挙動を捉えることを目的としている。
GNNベースのアプローチは、これらの相互作用を自然にモデル化するのに適しているため、近年注目を集めている。
本研究では,異なるアプローチを用いて動作予測システムの説明可能性を向上させることを目的とする。
論文 参考訳(メタデータ) (2022-12-07T17:43:42Z) - OCTET: Object-aware Counterfactual Explanations [29.532969342297086]
対物的説明生成のためのオブジェクト指向フレームワークを提案する。
近年のジェネレーティブ・モデリングの成果に触発された本手法では,オブジェクトレベルの操作を容易にするために,クエリイメージを潜在空間に符号化する。
そこで本研究では,シーンを駆動する反実的説明ベンチマークの一連の実験を行い,本手法が分類を超えて適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-22T16:23:12Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Video Action Detection: Analysing Limitations and Challenges [70.01260415234127]
ビデオ行動検出における既存のデータセットを分析し,その限界について議論する。
静的画像から映像を区別する重要な特性である時間的側面を解析するバイアスネススタディを実行する。
このような極端な実験は、注意深いモデリングを必要とする既存の手法に忍び込んだバイアスの存在を示している。
論文 参考訳(メタデータ) (2022-04-17T00:42:14Z) - Suspected Object Matters: Rethinking Model's Prediction for One-stage
Visual Grounding [93.82542533426766]
疑似オブジェクト間の対象オブジェクト選択を促進するため,疑似オブジェクト変換機構(SOT)を提案する。
SOTは既存のCNNとTransformerベースのワンステージ視覚グラウンドにシームレスに統合できる。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-10T06:41:07Z) - Look Wide and Interpret Twice: Improving Performance on Interactive
Instruction-following Tasks [29.671268927569063]
近年の研究では、タスクのためのよく設計されたデータセットであるALFREDを用いてこの問題に対処している。
本稿では,従来の手法を大きなマージンで上回る新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T16:06:09Z) - Self-Supervision by Prediction for Object Discovery in Videos [62.87145010885044]
本稿では,この予測タスクを自己監督として利用し,画像シーケンス表現のための新しいオブジェクト中心モデルを構築する。
私たちのフレームワークは、手動アノテーションや事前トレーニングされたネットワークを使わずにトレーニングできます。
最初の実験では、提案されたパイプラインがオブジェクト中心のビデオ予測への有望なステップであることを確認した。
論文 参考訳(メタデータ) (2021-03-09T19:14:33Z) - Object and Relation Centric Representations for Push Effect Prediction [18.990827725752496]
プッシュは、プレグレープ操作からシーンアレンジメントまでのタスクに使用される、非包括的操作スキルである。
本稿では,プッシュ動作の効果予測とパラメータ推定のためのグラフニューラルネットワークに基づくフレームワークを提案する。
本フレームワークは,異なる種類の接合体と異なる質量を有する物体を介して接続された異なる形状の多部オブジェクトを含む実環境と模擬環境の両方で検証される。
論文 参考訳(メタデータ) (2021-02-03T15:09:12Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。