論文の概要: Are you a robot? Detecting Autonomous Vehicles from Behavior Analysis
- arxiv url: http://arxiv.org/abs/2403.09571v1
- Date: Thu, 14 Mar 2024 17:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 19:38:09.161349
- Title: Are you a robot? Detecting Autonomous Vehicles from Behavior Analysis
- Title(参考訳): ロボットか? 行動分析から自動運転車を検出する
- Authors: Fabio Maresca, Filippo Grazioli, Antonio Albanese, Vincenzo Sciancalepore, Gianpiero Negri, Xavier Costa-Perez,
- Abstract要約: 本稿では,車両が自律的かどうかを判断するために,カメラ画像と状態情報を用いてアクティブな車両を監視するフレームワークを提案する。
基本的には、自動運転車を識別するための機械学習モデルを提供する道路上で取得したデータをシェアする車両間の協力に基づいて構築される。
実験により,ビデオクリップを80%の精度で解析することにより,2つの行動の識別が可能であることが確認された。
- 参考スコア(独自算出の注目度): 6.422370188350147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The tremendous hype around autonomous driving is eagerly calling for emerging and novel technologies to support advanced mobility use cases. As car manufactures keep developing SAE level 3+ systems to improve the safety and comfort of passengers, traffic authorities need to establish new procedures to manage the transition from human-driven to fully-autonomous vehicles while providing a feedback-loop mechanism to fine-tune envisioned autonomous systems. Thus, a way to automatically profile autonomous vehicles and differentiate those from human-driven ones is a must. In this paper, we present a fully-fledged framework that monitors active vehicles using camera images and state information in order to determine whether vehicles are autonomous, without requiring any active notification from the vehicles themselves. Essentially, it builds on the cooperation among vehicles, which share their data acquired on the road feeding a machine learning model to identify autonomous cars. We extensively tested our solution and created the NexusStreet dataset, by means of the CARLA simulator, employing an autonomous driving control agent and a steering wheel maneuvered by licensed drivers. Experiments show it is possible to discriminate the two behaviors by analyzing video clips with an accuracy of 80%, which improves up to 93% when the target state information is available. Lastly, we deliberately degraded the state to observe how the framework performs under non-ideal data collection conditions.
- Abstract(参考訳): 自動運転に関する誇大宣伝は、先進的なモビリティのユースケースをサポートする新しいテクノロジーを熱心に求めている。
自動車メーカーは、乗客の安全と快適性を改善するため、SAEレベル3以上のシステムの開発を続けているため、交通当局は、人間主導の車から完全自律車への移行を管理するための新たな手順を確立するとともに、微調整された自動運転システムへのフィードバックループ機構を提供する必要がある。
したがって、自動運転車を自動でプロファイリングし、人間主導の車と区別する方法は必須である。
本稿では,車両自体からのアクティブな通知を必要とせずに,車両が自律的であるかどうかを判断するために,カメラ画像と状態情報を用いてアクティブな車両を監視する,本格的なフレームワークを提案する。
基本的には、自動運転車を識別するための機械学習モデルを提供する道路上で取得したデータをシェアする車両間の協力に基づいて構築される。
CARLAシミュレータを用いて、私たちのソリューションを広範囲にテストし、NexusStreetデータセットを作成しました。
実験により,ビデオクリップを80%の精度で解析することにより,2つの行動の識別が可能であることが確認された。
最後に、非理想的なデータ収集条件下でフレームワークがどのように機能するかを観察するために、故意に状態を劣化させた。
関連論文リスト
- DME-Driver: Integrating Human Decision Logic and 3D Scene Perception in
Autonomous Driving [65.04871316921327]
本稿では,自律運転システムの性能と信頼性を高める新しい自律運転システムを提案する。
DME-Driverは、意思決定者として強力な視覚言語モデル、制御信号生成者として計画指向認識モデルを利用する。
このデータセットを利用することで、論理的思考プロセスを通じて高精度な計画精度を実現する。
論文 参考訳(メタデータ) (2024-01-08T03:06:02Z) - Large Language Models for Autonomous Driving: Real-World Experiments [11.858853494266873]
我々は,人間からの音声コマンドを処理する枠組みを導入し,文脈情報を用いて自律運転決定を行う。
このフレームワークは、様々なドライバーの乗っ取り率を最大90.1%削減することができる。
われわれの知る限りでは、Talk2DriveはLLMベースのシステムを現実の自動運転環境に導入した最初の例だ。
論文 参考訳(メタデータ) (2023-12-14T23:23:37Z) - Applications of Computer Vision in Autonomous Vehicles: Methods,
Challenges and Future Directions [3.1818269491041153]
本稿では,過去10年間に出版されたコンピュータビジョンと自動運転に関する論文をレビューする。
特に、まず自律運転システムの開発について検討し、各国の主要自動車メーカーによって開発されたこれらのシステムを要約する。
そこで, 深度推定, 物体検出, 車線検出, 信号認識など, 自律運転におけるコンピュータビジョン応用の概要を概観する。
論文 参考訳(メタデータ) (2023-11-15T16:41:18Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Indy Autonomous Challenge -- Autonomous Race Cars at the Handling Limits [81.22616193933021]
TUM Auton-omous Motorsportsは2021年10月、インディ・オートマチック・チャレンジに参加する。
インディアナポリス・モーター・スピードウェイのダララAV-21レースカー10台のうち1台を走らせることで、自動運転のソフトウェアスタックをベンチマークする。
これは、最も困難で稀な状況をマスターできる自律走行アルゴリズムを開発するための理想的な試験場である。
論文 参考訳(メタデータ) (2022-02-08T11:55:05Z) - An Intelligent Self-driving Truck System For Highway Transportation [81.12838700312308]
本稿では,インテリジェントな自動運転トラックシステムについて紹介する。
提案システムは,1)テストシナリオにおける現実的なトラフィックフローを生成する現実的なトラフィックシミュレーションモジュール,2)実環境における実際のトラックの応答を模倣するために設計,評価された高忠実度トラックモデル,の3つの主要コンポーネントから構成される。
また,提案するシステムを実車に展開し,実車間ギャップを緩和するシステムの能力を示す実物実験を行う。
論文 参考訳(メタデータ) (2021-12-31T04:54:13Z) - Adversarial Deep Reinforcement Learning for Trustworthy Autonomous
Driving Policies [5.254093731341154]
我々は、自動運転車の深い強化学習ポリシーの改善を支援するために、敵対的な例が利用できることを示した。
高忠実度都市運転シミュレーション環境と視覚ベース運転エージェントを用いて、敵プレイヤーを用いて再訓練した自動運転車が、その運転ポリシーの性能を著しく向上させることを実証した。
論文 参考訳(メタデータ) (2021-12-22T15:00:16Z) - Learning Personalized Discretionary Lane-Change Initiation for Fully
Autonomous Driving Based on Reinforcement Learning [11.54360350026252]
著者らは,完全自律走行車に対する選択車線変更開始の個別的戦術を学習する新しい方法を提案する。
交通状況や自動運転車の動作,車内ユーザのフィードバックから車線変更の開始方法を学ぶために,強化学習技術が使用されている。
論文 参考訳(メタデータ) (2020-10-29T06:21:23Z) - A Software Architecture for Autonomous Vehicles: Team LRM-B Entry in the
First CARLA Autonomous Driving Challenge [49.976633450740145]
本稿では,シミュレーション都市環境における自律走行車両のナビゲーション設計について述べる。
我々のアーキテクチャは、CARLA Autonomous Driving Challengeの要件を満たすために作られました。
論文 参考訳(メタデータ) (2020-10-23T18:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。