論文の概要: Evaluating Temporal Observation-Based Causal Discovery Techniques
Applied to Road Driver Behaviour
- arxiv url: http://arxiv.org/abs/2302.00064v2
- Date: Fri, 7 Apr 2023 12:57:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 14:55:52.899973
- Title: Evaluating Temporal Observation-Based Causal Discovery Techniques
Applied to Road Driver Behaviour
- Title(参考訳): 道路運転行動に対する時間観測に基づく因果発見手法の評価
- Authors: Rhys Howard, Lars Kunze
- Abstract要約: 自律運転領域における観察的時間的因果発見手法を10種類評価した。
これらの手法を実世界のデータセットから抽出した因果的シーンに基づいて評価することにより、生成したデータに加えて、どの点を改善する必要があるかを強調する。
我々は,現在最先端の技術が抱えている課題に対処するための今後の取り組みの方向性について論じる。
- 参考スコア(独自算出の注目度): 6.980076213134384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous robots are required to reason about the behaviour of dynamic
agents in their environment. The creation of models to describe these
relationships is typically accomplished through the application of causal
discovery techniques. However, as it stands observational causal discovery
techniques struggle to adequately cope with conditions such as causal sparsity
and non-stationarity typically seen during online usage in autonomous agent
domains. Meanwhile, interventional techniques are not always feasible due to
domain restrictions. In order to better explore the issues facing observational
techniques and promote further discussion of these topics we carry out a
benchmark across 10 contemporary observational temporal causal discovery
methods in the domain of autonomous driving. By evaluating these methods upon
causal scenes drawn from real world datasets in addition to those generated
synthetically we highlight where improvements need to be made in order to
facilitate the application of causal discovery techniques to the aforementioned
use-cases. Finally, we discuss potential directions for future work that could
help better tackle the difficulties currently experienced by state of the art
techniques.
- Abstract(参考訳): 自律ロボットは、環境における動的エージェントの振る舞いを判断する必要がある。
これらの関係を記述するモデルの作成は、典型的には因果発見手法の適用によって達成される。
しかし、観察的因果発見技術は、自律エージェントドメインにおけるオンライン使用において一般的に見られる因果スパーシティや非定常性といった状況に適切に対処できない。
一方、介入技術はドメインの制約のため必ずしも実現可能とは限らない。
観察技術に直面する問題をより深く探求し、これらのトピックのさらなる議論を促進するために、自律運転領域における10の現代観測時間因果発見手法のベンチマークを行う。
これらの手法を実世界のデータセットから抽出した因果シーンで評価することで,これらを合成して生成したデータに加えて,上記のユースケースへの因果発見手法の適用を容易にするために,改善が必要な箇所を強調する。
最後に,最先端技術によって現在経験されている課題に対処するための今後の取り組みの方向性について論じる。
関連論文リスト
- MILE: Model-based Intervention Learning [0.0]
ごく少数の専門家の介入で政策を学ぶことが可能であることを示す。
私たちの重要な洞察は、専門家のフィードバックから、現在の状態の品質と選択されたアクションの最適性について重要な情報を得ることができます。
論文 参考訳(メタデータ) (2025-02-19T08:15:16Z) - RealTCD: Temporal Causal Discovery from Interventional Data with Large Language Model [15.416325455014462]
時間因果発見は、観察から直接変数間の時間因果関係を特定することを目的としている。
既存の手法は主に介入対象に大きく依存する合成データセットに焦点を当てている。
本稿では、ドメイン知識を活用して、介入対象のない時間的因果関係を発見できるRealTCDフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-23T06:52:40Z) - Self-Supervised Class-Agnostic Motion Prediction with Spatial and Temporal Consistency Regularizations [53.797896854533384]
クラスに依存しない動き予測法は点雲全体の動きを直接予測する。
既存のほとんどのメソッドは、完全に教師付き学習に依存しているが、ポイントクラウドデータの手作業によるラベル付けは、手間と時間を要する。
3つの簡単な空間的・時間的正則化損失を導入し,自己指導型学習プロセスの効率化を図る。
論文 参考訳(メタデータ) (2024-03-20T02:58:45Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Sim-to-Real Causal Transfer: A Metric Learning Approach to
Causally-Aware Interaction Representations [62.48505112245388]
エージェント相互作用の現代的表現の因果認識を詳細に検討する。
近年の表現は、非因果剤の摂動に対して部分的に耐性があることが示されている。
因果アノテーションを用いた潜在表現を正規化するための計量学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:57:03Z) - Social Interaction-Aware Dynamical Models and Decision Making for
Autonomous Vehicles [20.123965317836106]
IAAD(Interaction-Aware Autonomous Driving)は、急速に成長する研究分野である。
それは、人間の道路利用者と安全かつ効率的に対話できる自動運転車の開発に焦点を当てている。
これは、自動運転車が人間の道路利用者の行動を理解し予測できることを要求するため、困難な作業である。
論文 参考訳(メタデータ) (2023-10-29T03:43:50Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Simulation-Based Counterfactual Causal Discovery on Real World Driver
Behaviour [6.273003557777915]
本稿では,提案手法の3つの変種について述べる。
実世界の運転データセットから抽出した3396件の因果的シーンの観察的時間的因果的発見手法の状況に対する評価を行った。
論文 参考訳(メタデータ) (2023-06-06T02:10:20Z) - CausalBench: A Large-scale Benchmark for Network Inference from
Single-cell Perturbation Data [61.088705993848606]
本稿では,実世界の介入データに対する因果推論手法を評価するベンチマークスイートCausalBenchを紹介する。
CaulBenchには、新しい分散ベースの介入メトリクスを含む、生物学的に動機付けられたパフォーマンスメトリクスが含まれている。
論文 参考訳(メタデータ) (2022-10-31T13:04:07Z) - Causal Navigation by Continuous-time Neural Networks [108.84958284162857]
本研究では,連続時間ニューラルネットワークを用いた因果表現学習のための理論的,実験的枠組みを提案する。
本手法は,ドローンの視覚制御学習の文脈において,一連の複雑なタスクにおいて評価する。
論文 参考訳(メタデータ) (2021-06-15T17:45:32Z) - Augmented Behavioral Cloning from Observation [14.45796459531414]
観察からの模倣(英:imitation from Observation)とは、専門家の行動の模倣法をエージェントに教える技法である。
我々は4つの異なる環境における最先端のアプローチよりも大きなマージンで優れていることを実証的に示す。
論文 参考訳(メタデータ) (2020-04-28T13:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。