論文の概要: CausalAF: Causal Autoregressive Flow for Goal-Directed Safety-Critical
Scenes Generation
- arxiv url: http://arxiv.org/abs/2110.13939v1
- Date: Tue, 26 Oct 2021 18:07:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 12:47:03.757897
- Title: CausalAF: Causal Autoregressive Flow for Goal-Directed Safety-Critical
Scenes Generation
- Title(参考訳): CausalAF:ゴール指向型安全クリティカルシーン生成のための因果自己回帰流
- Authors: Wenhao Ding, Haohong Lin, Bo Li, Ding Zhao
- Abstract要約: フローベース生成フレームワーク - Causal Autoregressive Flow (CausalAF)を提案する。
本稿では,安全クリティカルなシーン生成プロセスに因果関係を先行として統合する。
CausalAFは生成モデルに対して、生成されたオブジェクト間の因果関係を発見し、追跡することを奨励する。
- 参考スコア(独自算出の注目度): 25.139774604219603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Goal-directed generation, aiming for solving downstream tasks by generating
diverse data, has a potentially wide range of applications in the real world.
Previous works tend to formulate goal-directed generation as a purely
data-driven problem, which directly searches or approximates the distribution
of samples satisfying the goal. However, the generation ability of preexisting
work is heavily restricted by inefficient sampling, especially for sparse goals
that rarely show up in off-the-shelf datasets. For instance, generating
safety-critical traffic scenes with the goal of increasing the risk of
collision is critical to evaluate autonomous vehicles, but the rareness of such
scenes is the biggest resistance. In this paper, we integrate causality as a
prior into the safety-critical scene generation process and propose a
flow-based generative framework - Causal Autoregressive Flow (CausalAF).
CausalAF encourages the generative model to uncover and follow the causal
relationship among generated objects via novel causal masking operations
instead of searching the sample only from observational data. By learning the
cause-and-effect mechanism of how the generated scene achieves the goal rather
than just learning correlations from data, CausalAF significantly improves the
learning efficiency. Extensive experiments on three heterogeneous traffic
scenes illustrate that CausalAF requires much fewer optimization resources to
effectively generate goal-directed scenes for safety evaluation tasks.
- Abstract(参考訳): 多様なデータを生成することによって下流タスクの解決を目的としたゴール指向生成は、現実世界で幅広い応用が期待できる。
従来の研究は、目的を満たすサンプルの分布を直接検索または近似する純粋にデータ駆動問題としてゴール指向生成を定式化する傾向にある。
しかしながら、既存の作業の生成能力は、非効率なサンプリング、特に既成のデータセットにほとんど現れないスパース目標によって大きく制限されている。
例えば、衝突のリスクを高めることを目的として安全クリティカルな交通シーンを生成することは、自動運転車を評価する上で非常に重要であるが、そのようなシーンの稀さは最大の抵抗である。
本稿では,先行する因果関係を安全クリティカルシーン生成プロセスに統合し,causalaf(caous autoregressive flow)というフローベースの生成フレームワークを提案する。
CausalAFは、観測データのみからサンプルを検索する代わりに、新しい因果マスク操作によって生成されたオブジェクト間の因果関係を発見し、追跡することを生成モデルに推奨する。
生成したシーンが単にデータから相関を学習するだけでなく、目的を達成するための原因と効果のメカニズムを学ぶことで、CausalAFは学習効率を大幅に改善する。
ヘテロジニアスな3つの交通シーンに関する大規模な実験は、安全評価タスクのためにゴール指向のシーンを効果的に生成するために、CausalAFがはるかに少ない最適化リソースを必要とすることを示している。
関連論文リスト
- Targeted Cause Discovery with Data-Driven Learning [66.86881771339145]
本稿では,観測結果から対象変数の因果変数を推定する機械学習手法を提案する。
我々は、シミュレートされたデータの教師あり学習を通じて因果関係を特定するために訓練されたニューラルネットワークを用いる。
大規模遺伝子制御ネットワークにおける因果関係の同定における本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-29T02:21:11Z) - Adversarial Safety-Critical Scenario Generation using Naturalistic Human Driving Priors [2.773055342671194]
本研究では,自然主義的人間運転先行と強化学習技術を用いた自然逆シナリオ生成ソリューションを提案する。
本研究は,本モデルにより,自然性と逆性の両方をカバーする現実的な安全クリティカルなテストシナリオを生成できることを示す。
論文 参考訳(メタデータ) (2024-08-06T13:58:56Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Seeing is not Believing: Robust Reinforcement Learning against Spurious
Correlation [57.351098530477124]
国家の異なる部分には、保存されていない共同設立者が引き起こす相関関係が存在しない。
このような役に立たないあるいは有害な相関を学習するモデルは、テストケースの共同創設者がトレーニングケースから逸脱したときに破滅的に失敗する可能性がある。
したがって、単純かつ非構造的な不確実性集合を仮定する既存の頑健なアルゴリズムは、この問題に対処するには不十分である。
論文 参考訳(メタデータ) (2023-07-15T23:53:37Z) - Causal Flow-based Variational Auto-Encoder for Disentangled Causal Representation Learning [1.4875602190483512]
遠方表現学習は、各次元が基礎となる生成因子に対応する、データの低次元表現を学習することを目的としている。
我々は、Distangled Causal Variational Auto-Encoder (DCVAE) という新しいVAEベースのフレームワークを設計する。
DCVAEには、因果流として知られる自己回帰流の変種が含まれており、効果的な因果不整合表現を学習することができる。
論文 参考訳(メタデータ) (2023-04-18T14:26:02Z) - Generating Useful Accident-Prone Driving Scenarios via a Learned Traffic
Prior [135.78858513845233]
STRIVEは、特定のプランナーが衝突のような望ましくない振る舞いを発生させるような、困難なシナリオを自動的に生成する手法である。
シナリオの妥当性を維持するために、キーとなるアイデアは、グラフベースの条件付きVAEという形で、学習した交通運動モデルを活用することである。
その後の最適化は、シナリオの"解決"を見つけるために使用され、与えられたプランナーを改善するのに有効である。
論文 参考訳(メタデータ) (2021-12-09T18:03:27Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z) - Multimodal Safety-Critical Scenarios Generation for Decision-Making
Algorithms Evaluation [23.43175124406634]
既存のニューラルネットワークベースの自律システムは、敵の攻撃に対して脆弱であることが示されている。
意思決定アルゴリズムの評価のためのフローベースマルチモーダル安全クリティカルシナリオジェネレータを提案する。
生成したトラフィックシナリオを用いて6つの強化学習アルゴリズムを評価し,その堅牢性に関する実証的な結論を提供する。
論文 参考訳(メタデータ) (2020-09-16T15:16:43Z) - Learning to Collide: An Adaptive Safety-Critical Scenarios Generating
Method [20.280573307366627]
本稿では,タスクアルゴリズム評価のための安全クリティカルなシナリオを作成するための生成フレームワークを提案する。
提案手法は,グリッド探索や人的設計手法よりも安全クリティカルなシナリオを効率的に生成できることを実証する。
論文 参考訳(メタデータ) (2020-03-02T21:26:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。