論文の概要: Adversarial Mixture Density Networks: Learning to Drive Safely from
Collision Data
- arxiv url: http://arxiv.org/abs/2107.04485v1
- Date: Fri, 9 Jul 2021 15:16:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:54:39.804289
- Title: Adversarial Mixture Density Networks: Learning to Drive Safely from
Collision Data
- Title(参考訳): 逆混合密度ネットワーク:衝突データから安全に運転する学習
- Authors: Sampo Kuutti, Saber Fallah, Richard Bowden
- Abstract要約: シミュレーション学習は、事前に記録されたデータに基づいて自律運転の制御ポリシーを学習するために広く用いられている。
本稿では、異なるデータセットから2つの分布を学習するAdversarial Mixture Density Networks (AMDN)を紹介する。
そこで本研究では,AMDNが,純模倣学習や標準混合密度ネットワークアプローチと比較して,学習した制御ポリシーの安全性に有意な利益をもたらすことを示す。
- 参考スコア(独自算出の注目度): 42.57240271305088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imitation learning has been widely used to learn control policies for
autonomous driving based on pre-recorded data. However, imitation learning
based policies have been shown to be susceptible to compounding errors when
encountering states outside of the training distribution. Further, these agents
have been demonstrated to be easily exploitable by adversarial road users
aiming to create collisions. To overcome these shortcomings, we introduce
Adversarial Mixture Density Networks (AMDN), which learns two distributions
from separate datasets. The first is a distribution of safe actions learned
from a dataset of naturalistic human driving. The second is a distribution
representing unsafe actions likely to lead to collision, learned from a dataset
of collisions. During training, we leverage these two distributions to provide
an additional loss based on the similarity of the two distributions. By
penalising the safe action distribution based on its similarity to the unsafe
action distribution when training on the collision dataset, a more robust and
safe control policy is obtained. We demonstrate the proposed AMDN approach in a
vehicle following use-case, and evaluate under naturalistic and adversarial
testing environments. We show that despite its simplicity, AMDN provides
significant benefits for the safety of the learned control policy, when
compared to pure imitation learning or standard mixture density network
approaches.
- Abstract(参考訳): 模倣学習は、予め記録されたデータに基づいて自律運転の制御方針を学ぶために広く使われている。
しかしながら、模倣学習に基づくポリシーは、トレーニング分布外の状態に遭遇する際のエラーを複雑化する可能性があることが示されている。
さらに、これらのエージェントは衝突を起こそうとする敵の道路利用者によって容易に利用できることが示されている。
これらの欠点を克服するために、異なるデータセットから2つの分布を学習するAdversarial Mixture Density Networks (AMDN)を導入する。
1つ目は、自然主義的な人間の運転のデータセットから学んだ安全な行動の分布である。
2つ目は、衝突のデータセットから学んだ、衝突につながる可能性のある安全でない行動を表す分布である。
トレーニング中、これらの2つの分布を利用して、2つの分布の類似性に基づいたさらなる損失を与える。
衝突データセットのトレーニング時に、安全行動分布と非安全行動分布との類似性に基づいて安全行動分布を解析することにより、より堅牢で安全な制御ポリシーを得る。
提案するamdnアプローチをユースケースに追従した車両で実証し,自然主義的および敵対的テスト環境下で評価する。
その単純さにもかかわらず、amdnは純粋な模倣学習や標準混合密度ネットワークアプローチと比較して、学習した制御ポリシーの安全性に大きなメリットがあることを示している。
関連論文リスト
- Collision Probability Distribution Estimation via Temporal Difference Learning [0.46085106405479537]
累積衝突確率分布を推定する先駆的なフレームワークであるCollisionProを紹介する。
我々は、強化学習の文脈において、我々の枠組みを定式化し、安全に配慮したエージェントの道を開く。
現実的な自律運転シミュレータを用いて,本フレームワークの総合的な検討を行った。
論文 参考訳(メタデータ) (2024-07-29T13:32:42Z) - Federated Adversarial Learning for Robust Autonomous Landing Runway Detection [6.029462194041386]
本稿では,着陸滑走路を検出するための対向学習フレームワークを提案する。
我々の知る限りでは、着陸滑走路検出における対向的なサンプル問題に対処する連合学習の事例としては、これが初めてである。
論文 参考訳(メタデータ) (2024-06-22T19:31:52Z) - Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - FedDriveScore: Federated Scoring Driving Behavior with a Mixture of
Metric Distributions [6.195950768412144]
集中型学習に代わるプライバシフレンドリな代替手段として,自動車とクラウドのコラボレーションが提案されている。
このフレームワークは、グローバルスコアリングモデルの性能劣化を低減するために、一貫したスコアリング手法のフェデレーションバージョンを含む。
論文 参考訳(メタデータ) (2024-01-13T02:15:41Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。