論文の概要: Benchmarking Robustness of AI-Enabled Multi-sensor Fusion Systems:
Challenges and Opportunities
- arxiv url: http://arxiv.org/abs/2306.03454v2
- Date: Tue, 29 Aug 2023 01:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 18:09:11.411129
- Title: Benchmarking Robustness of AI-Enabled Multi-sensor Fusion Systems:
Challenges and Opportunities
- Title(参考訳): AIによるマルチセンサフュージョンシステムのベンチマークロバスト性:課題と機会
- Authors: Xinyu Gao, Zhijie Wang, Yang Feng, Lei Ma, Zhenyu Chen, Baowen Xu
- Abstract要約: マルチセンサー・フュージョン(MSF)ベースの認識システムは、自動運転車、ロボットアーム、無人航空機など、多くの産業用アプリケーションやドメインをサポートする基盤となっている。
過去数年間、データ駆動人工知能(AI)の急速な進歩は、特にインテリジェントシステムやその知覚システムにおいて、パフォーマンスをさらに向上させるために、深層学習技術によってMSFシステムを強化する、急速なトレンドをもたらした。
AI対応のMSF認識システムや技術はいくつか提案されているが、現時点では、MSF認識にフォーカスする限られたベンチマークが公開されている。
- 参考スコア(独自算出の注目度): 23.460181958075566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Sensor Fusion (MSF) based perception systems have been the foundation
in supporting many industrial applications and domains, such as self-driving
cars, robotic arms, and unmanned aerial vehicles. Over the past few years, the
fast progress in data-driven artificial intelligence (AI) has brought a
fast-increasing trend to empower MSF systems by deep learning techniques to
further improve performance, especially on intelligent systems and their
perception systems. Although quite a few AI-enabled MSF perception systems and
techniques have been proposed, up to the present, limited benchmarks that focus
on MSF perception are publicly available. Given that many intelligent systems
such as self-driving cars are operated in safety-critical contexts where
perception systems play an important role, there comes an urgent need for a
more in-depth understanding of the performance and reliability of these MSF
systems. To bridge this gap, we initiate an early step in this direction and
construct a public benchmark of AI-enabled MSF-based perception systems
including three commonly adopted tasks (i.e., object detection, object
tracking, and depth completion). Based on this, to comprehensively understand
MSF systems' robustness and reliability, we design 14 common and realistic
corruption patterns to synthesize large-scale corrupted datasets. We further
perform a systematic evaluation of these systems through our large-scale
evaluation. Our results reveal the vulnerability of the current AI-enabled MSF
perception systems, calling for researchers and practitioners to take
robustness and reliability into account when designing AI-enabled MSF.
- Abstract(参考訳): マルチセンサー・フュージョン(msf)ベースの知覚システムは、自動運転車、ロボットアーム、無人航空機など、多くの産業用途やドメインをサポートする基礎となっている。
過去数年間、データ駆動人工知能(AI)の急速な進歩は、特にインテリジェントシステムやその知覚システムにおいて、パフォーマンスをさらに向上させるために、深層学習技術によってMSFシステムを強化する、急速なトレンドをもたらした。
AI対応のMSF認識システムや技術はいくつか提案されているが、現時点では、MSF認識にフォーカスする限られたベンチマークが公開されている。
自動運転車のようなインテリジェントなシステムは、認識システムが重要な役割を果たす安全クリティカルな状況で運用されているため、これらのMSFシステムの性能と信頼性をより深く理解する必要がある。
このギャップを埋めるため、我々はこの方向の早期段階を開始し、3つの一般的に採用されているタスク(オブジェクト検出、オブジェクト追跡、奥行き完了)を含むai対応msfベースの知覚システムの公開ベンチマークを構築する。
そこで我々は,MSFシステムの堅牢性と信頼性を包括的に理解するために,大規模に破損したデータセットを合成するために,14の共通かつ現実的な破損パターンを設計する。
さらに, 大規模評価を行い, システムの系統的評価を行った。
我々の結果は、現在のAI対応のMSF認識システムの脆弱性を明らかにし、AI対応のMSFを設計する際に、研究者や実践者が堅牢性と信頼性を考慮するように求めている。
関連論文リスト
- Highlighting the Safety Concerns of Deploying LLMs/VLMs in Robotics [54.57914943017522]
本稿では,大規模言語モデル (LLMs) と視覚言語モデル (VLMs) をロボティクスアプリケーションに統合する際のロバスト性と安全性に関する重要な課題を強調する。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - MultiTest: Physical-Aware Object Insertion for Testing Multi-sensor
Fusion Perception Systems [23.460181958075566]
マルチセンサー融合(MSF、Multi-Sensor fusion)は、自動運転車や自動ロボットアームなど、多くの安全上重要なタスクや応用に対処する鍵となる技術である。
既存のテスト方法は、主に単一センサーの知覚システムに焦点を当てている。
複雑なMSF知覚システムのための適合性誘導型メタモルフィックテスト手法であるMultiTestを紹介する。
論文 参考訳(メタデータ) (2024-01-25T17:03:02Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - MMRNet: Improving Reliability for Multimodal Object Detection and
Segmentation for Bin Picking via Multimodal Redundancy [68.7563053122698]
マルチモーダル冗長性(MMRNet)を用いた信頼度の高いオブジェクト検出・分割システムを提案する。
これは、マルチモーダル冗長の概念を導入し、デプロイ中のセンサ障害問題に対処する最初のシステムである。
システム全体の出力信頼性と不確実性を測定するために,すべてのモダリティからの出力を利用する新しいラベルフリーマルチモーダル整合性(MC)スコアを提案する。
論文 参考訳(メタデータ) (2022-10-19T19:15:07Z) - Multi-AI Complex Systems in Humanitarian Response [0.0]
比較的単純な現実世界の人道的応答シナリオにおいても、マルチAIシステムがいかにして発生しうるかを説明し、潜在的に創発的で不正な行動を引き起こす。
本論文は、人道的対応の分野におけるこのトピックに関する最初の展示として、意識を高め、このドメインの展望を探究し、より広いコミュニティにおける今後の仕事の出発点を提供するように設計されている。
論文 参考訳(メタデータ) (2022-08-24T03:01:21Z) - Statistical Perspectives on Reliability of Artificial Intelligence
Systems [6.284088451820049]
AIシステムの信頼性に関する統計的視点を提供する。
本稿では,AI信頼性研究のためのSMART統計フレームワークを提案する。
我々は、AI信頼性のモデリングと分析における最近の発展について論じる。
論文 参考訳(メタデータ) (2021-11-09T20:00:14Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。