論文の概要: Approaches to Analysis and Design of AI-Based Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2509.12169v1
- Date: Mon, 15 Sep 2025 17:32:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.428455
- Title: Approaches to Analysis and Design of AI-Based Autonomous Vehicles
- Title(参考訳): AIに基づく自律走行車の解析と設計へのアプローチ
- Authors: Tao Yan, Zheyu Zhang, Jingjing Jiang, Wen-Hua Chen,
- Abstract要約: AIベースのフィードバックを通じてループを閉じると、自律運転の信頼性に重大なリスクが生じる可能性がある。
本稿では,AIに基づくAVクラスのためのモデリング,解析,合成のためのツールを開発することを目的とする。
- 参考スコア(独自算出の注目度): 12.672967565682724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) models are becoming key components in an autonomous vehicle (AV), especially in handling complicated perception tasks. However, closing the loop through AI-based feedback may pose significant risks on reliability of autonomous driving due to very limited understanding about the mechanism of AI-driven perception processes. To overcome it, this paper aims to develop tools for modeling, analysis, and synthesis for a class of AI-based AV; in particular, their closed-loop properties, e.g., stability, robustness, and performance, are rigorously studied in the statistical sense. First, we provide a novel modeling means for the AI-driven perception processes by looking at their error characteristics. Specifically, three fundamental AI-induced perception uncertainties are recognized and modeled by Markov chains, Gaussian processes, and bounded disturbances, respectively. By means of that, the closed-loop stochastic stability (SS) is established in the sense of mean square, and then, an SS control synthesis method is presented within the framework of linear matrix inequalities (LMIs). Besides the SS properties, the robustness and performance of AI-based AVs are discussed in terms of a stochastic guaranteed cost, and criteria are given to test the robustness level of an AV when in the presence of AI-induced uncertainties. Furthermore, the stochastic optimal guaranteed cost control is investigated, and an efficient design procedure is developed innovatively based on LMI techniques and convex optimization. Finally, to illustrate the effectiveness, the developed results are applied to an example of car following control, along with extensive simulation.
- Abstract(参考訳): 人工知能(AI)モデルは、特に複雑な知覚タスクの処理において、自動運転車(AV)の重要なコンポーネントになりつつある。
しかし、AIに基づくフィードバックを通じてループを閉じると、AI駆動認識プロセスのメカニズムについての理解が極めて限られているため、自律運転の信頼性に重大なリスクが生じる可能性がある。
そこで本研究では,AIに基づくAVのクラスをモデル化,解析,合成するためのツールを開発することを目的としており,特に,その閉ループ特性,例えば安定性,堅牢性,性能について,統計的に厳密に研究している。
まず,AI駆動型知覚プロセスにおいて,その誤り特性を考察し,新しいモデリング手法を提案する。
具体的には、マルコフ連鎖、ガウス過程、有界乱れの3つの基本的AIによる認識の不確かさが認識され、モデル化される。
これにより、閉ループ確率安定性(SS)は平均二乗の意味で確立され、線形行列不等式(LMI)の枠組み内でSS制御合成法が提示される。
SS特性の他に、AIベースのAVの堅牢性と性能を確率論的に保証されたコストの観点から議論し、AIによる不確実性が存在する場合のAVの堅牢性レベルをテストする基準を与える。
さらに、確率的最適保証コスト制御について検討し、LMI技術と凸最適化に基づく効率的な設計手法を革新的に開発する。
最後に, 車両追従制御の例に適用し, 広範囲なシミュレーションを行った。
関連論文リスト
- Control Analysis and Design for Autonomous Vehicles Subject to Imperfect AI-Based Perception [12.672967565682724]
安全は自律走行車(AV)システムにおいて重要な問題であり、特にAIベースの知覚・知覚モジュールが関与する場合に重要である。
本稿ではAIベースのAVのための新しいモデリング、分析、合成ツールを開発することを目的とする。
論文 参考訳(メタデータ) (2025-09-15T17:03:21Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Explainable AI for Enhancing Efficiency of DL-based Channel Estimation [1.0136215038345013]
人工知能に基づく意思決定のサポートは、将来の6Gネットワークの重要な要素である。
このようなアプリケーションでは、ブラックボックスモデルとしてAIを使用するのは危険で難しい。
本稿では,無線通信におけるチャネル推定を目的とした新しいXAI-CHESTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-09T16:24:21Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率のよいアンサンブル手法であるLoRA-Ensembleを紹介する。
この方法は、BatchEnsembleのような最先端の暗黙のテクニックを上回るだけでなく、Explicit Ensembleの正確さにマッチするか超える。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Cloud-based XAI Services for Assessing Open Repository Models Under Adversarial Attacks [7.500941533148728]
計算コンポーネントとアセスメントタスクをパイプラインにカプセル化するクラウドベースのサービスフレームワークを提案する。
我々は、AIモデルの5つの品質特性を評価するために、XAIサービスの応用を実証する。
論文 参考訳(メタデータ) (2024-01-22T00:37:01Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - AttNS: Attention-Inspired Numerical Solving For Limited Data Scenarios [51.94807626839365]
限定データによる微分方程式の解法として,注目型数値解法(AttNS)を提案する。
AttNSは、モデル一般化とロバスト性の向上におけるResidual Neural Networks(ResNet)のアテンションモジュールの効果にインスパイアされている。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。