論文の概要: A holistic perception system of internal and external monitoring for ground autonomous vehicles: AutoTRUST paradigm
- arxiv url: http://arxiv.org/abs/2508.17969v1
- Date: Mon, 25 Aug 2025 12:32:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.774667
- Title: A holistic perception system of internal and external monitoring for ground autonomous vehicles: AutoTRUST paradigm
- Title(参考訳): 地中・外部監視の総合的認識システム:AutoTRUSTパラダイム
- Authors: Alexandros Gkillas, Christos Anagnostopoulos, Nikos Piperigkos, Dimitris Tsiktsiris, Theofilos Christodoulou, Theofanis Siamatras, Dimitrios Triantafyllou, Christos Basdekis, Theoktisti Marinopoulou, Panagiotis Lepentsiotis, Elefterios Blitsis, Aggeliki Zacharaki, Nearchos Stylianidis, Leonidas Katelaris, Lamberto Salvan, Aris S. Lalos, Christos Laoudias, Antonios Lalas, Konstantinos Votis,
- Abstract要約: 本稿では,自律走行車の内部および外部監視のための総合的な認識システムについて紹介する。
インキャビン監視システムには、空気の質を計測し、オンボードとオフボードで効率よく熱快適な分析を行うAI搭載センサーが含まれている。
一方、外部監視システムは、LiDARに基づくコスト効率なセマンティックセマンティック・セマンティック・セマンティック・アプローチを通じて、車両の周囲環境を知覚する。
- 参考スコア(独自算出の注目度): 29.72376845511303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a holistic perception system for internal and external monitoring of autonomous vehicles, with the aim of demonstrating a novel AI-leveraged self-adaptive framework of advanced vehicle technologies and solutions that optimize perception and experience on-board. Internal monitoring system relies on a multi-camera setup designed for predicting and identifying driver and occupant behavior through facial recognition, exploiting in addition a large language model as virtual assistant. Moreover, the in-cabin monitoring system includes AI-empowered smart sensors that measure air-quality and perform thermal comfort analysis for efficient on and off-boarding. On the other hand, external monitoring system perceives the surrounding environment of vehicle, through a LiDAR-based cost-efficient semantic segmentation approach, that performs highly accurate and efficient super-resolution on low-quality raw 3D point clouds. The holistic perception framework is developed in the context of EU's Horizon Europe programm AutoTRUST, and has been integrated and deployed on a real electric vehicle provided by ALKE. Experimental validation and evaluation at the integration site of Joint Research Centre at Ispra, Italy, highlights increased performance and efficiency of the modular blocks of the proposed perception architecture.
- Abstract(参考訳): 本稿では,車載における知覚と経験を最適化する,高度な車両技術とソリューションの,AIが平均化する新たな自己適応フレームワークを実証することを目的とした,自律走行車の内部および外部監視のための総合的認識システムを提案する。
内部監視システムは、顔認証によるドライバーと乗員の行動の予測と識別のために設計されたマルチカメラのセットアップに依存しており、また、大きな言語モデルを仮想アシスタントとして活用している。
さらに、車載監視システムには、空気の質を計測し、効率的なオンボードおよびオフボードのための熱快適分析を行うAI内蔵のスマートセンサーが含まれている。
一方、外部監視システムは、低品質の生3D点雲上で高精度かつ効率的な超解像を行うLiDARベースのコスト効率セマンティックセマンティックセマンティック・セマンティック・アプローチを通じて、車両の周囲環境を知覚する。
全体的な知覚フレームワークは、EUのHorizon Europe Programm AutoTRUSTの文脈で開発され、ALKEが提供する実際の電気自動車に統合され、デプロイされている。
イタリアのイスプラ(Ispra)のジョイント・リサーチ・センター(Joint Research Centre)の統合サイトにおける実験的な検証と評価は、提案された知覚アーキテクチャのモジュラーブロックの性能と効率の向上を強調している。
関連論文リスト
- Decentralized Vision-Based Autonomous Aerial Wildlife Monitoring [55.159556673975544]
野生生物モニタリングのための分散視覚に基づくマルチクワッドロータシステムを提案する。
我々のアプローチは、その自然生息地における大型種のロバスト同定と追跡を可能にする。
論文 参考訳(メタデータ) (2025-08-20T20:05:05Z) - Progressive Bird's Eye View Perception for Safety-Critical Autonomous Driving: A Comprehensive Survey [20.7823289124196]
Bird's-Eye-View (BEV) の認識は、自動運転の基本的なパラダイムとなっている。
この調査は、安全クリティカルな観点からのBEVの認識に関する、初めての包括的なレビューを提供する。
論文 参考訳(メタデータ) (2025-08-11T02:40:46Z) - MetAdv: A Unified and Interactive Adversarial Testing Platform for Autonomous Driving [63.875372281596576]
MetAdvは、現実的でダイナミックでインタラクティブな評価を可能にする、新しい対向テストプラットフォームである。
フレキシブルな3D車両モデリングと、シミュレートされた環境と物理的環境のシームレスな遷移をサポートする。
生理的信号のリアルタイムキャプチャとドライバからの行動フィードバックを可能にする。
論文 参考訳(メタデータ) (2025-08-04T03:07:54Z) - SOLVE: Synergy of Language-Vision and End-to-End Networks for Autonomous Driving [51.47621083057114]
SOLVEは、ビジョンランゲージモデルとエンド・ツー・エンド(E2E)モデルを相乗化して自動運転車の計画を強化する革新的なフレームワークである。
提案手法は,VLMとE2Eコンポーネント間の包括的インタラクションを実現するために,共有ビジュアルエンコーダによる機能レベルでの知識共有を重視している。
論文 参考訳(メタデータ) (2025-05-22T15:44:30Z) - VALISENS: A Validated Innovative Multi-Sensor System for Cooperative Automated Driving [0.9527960631238174]
本稿では,複数のエージェントに分散した革新的なマルチセンサシステムであるVALISENSを提案する。
オンボードと道路沿いのLiDAR、レーダー、サーマルカメラ、RGBカメラを統合し、状況認識を高め、協調運転を支援する。
提案システムは,実環境における協調的認識の可能性を示す。
論文 参考訳(メタデータ) (2025-05-11T13:41:37Z) - Leveraging Large Language Models for Enhancing Autonomous Vehicle Perception [0.0]
大規模言語モデル(LLM)は、動的環境、センサー融合、文脈推論の課題に対処するために用いられる。
本稿では,ALMをAV知覚に組み込むことにより,文脈理解の高度化を実現する新しい枠組みを提案する。
実験により,LLMはAV知覚システムの精度と信頼性を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-12-28T17:58:44Z) - A Method for the Runtime Validation of AI-based Environment Perception in Automated Driving System [2.369782235753731]
環境認識は、自律運転システムによって実行される動的運転タスクの基本的な部分である。
現在の自動車システムの安全関連規格は、包括的な要求仕様の存在を前提としている。
本稿では,AIを用いたADS環境認識のための機能的ランタイム監視のための関数モニタを提案する。
論文 参考訳(メタデータ) (2024-12-21T20:21:49Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Robust Perception Architecture Design for Automotive Cyber-Physical
Systems [4.226118870861363]
PASTAは、深層学習のグローバルな協調最適化と、信頼性の高い車両知覚のためのセンシングのためのフレームワークである。
PASTAがいかに堅牢で、車両固有の知覚アーキテクチャソリューションを見出すかを示す。
論文 参考訳(メタデータ) (2022-05-17T03:02:07Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。