論文の概要: Fighting AI with AI: Leveraging Foundation Models for Assuring AI-Enabled Safety-Critical Systems
- arxiv url: http://arxiv.org/abs/2511.20627v1
- Date: Tue, 25 Nov 2025 18:48:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.631303
- Title: Fighting AI with AI: Leveraging Foundation Models for Assuring AI-Enabled Safety-Critical Systems
- Title(参考訳): AIでAIと戦う - AIで実現可能な安全クリティカルシステムを保証するための基礎モデルを活用する
- Authors: Anastasia Mavridou, Divya Gopinath, Corina S. Păsăreanu,
- Abstract要約: 航空宇宙や自動運転車のような安全クリティカルなシステムへのAIの統合は、保証の基本的な課題を提示する。
AIシステムの不透明さは、高レベルの要求と低レベルのネットワーク表現のセマンティックなギャップと相まって、従来の検証アプローチの障壁を生み出します。
我々は、AI自体を活用して、2つの補完的なコンポーネントを通してこれらの課題に対処するアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.5696801894034388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of AI components, particularly Deep Neural Networks (DNNs), into safety-critical systems such as aerospace and autonomous vehicles presents fundamental challenges for assurance. The opacity of AI systems, combined with the semantic gap between high-level requirements and low-level network representations, creates barriers to traditional verification approaches. These AI-specific challenges are amplified by longstanding issues in Requirements Engineering, including ambiguity in natural language specifications and scalability bottlenecks in formalization. We propose an approach that leverages AI itself to address these challenges through two complementary components. REACT (Requirements Engineering with AI for Consistency and Testing) employs Large Language Models (LLMs) to bridge the gap between informal natural language requirements and formal specifications, enabling early verification and validation. SemaLens (Semantic Analysis of Visual Perception using large Multi-modal models) utilizes Vision Language Models (VLMs) to reason about, test, and monitor DNN-based perception systems using human-understandable concepts. Together, these components provide a comprehensive pipeline from informal requirements to validated implementations.
- Abstract(参考訳): AIコンポーネント、特にディープニューラルネットワーク(DNN)を航空宇宙や自動運転車のような安全クリティカルなシステムに統合することは、保証の基本的な課題を提示する。
AIシステムの不透明さは、高レベルの要求と低レベルのネットワーク表現のセマンティックなギャップと相まって、従来の検証アプローチの障壁を生み出します。
これらのAI固有の課題は、自然言語仕様の曖昧さや形式化におけるスケーラビリティのボトルネックなど、要件エンジニアリングの長年の問題によって増幅される。
我々は、AI自体を活用して、2つの補完的なコンポーネントを通してこれらの課題に対処するアプローチを提案する。
REACT(Requirements Engineering with AI for Consistency and Testing)は、非公式な自然言語要件と正式な仕様とのギャップを埋めるため、Large Language Models(LLM)を使用している。
SemaLens (Semantic Analysis of Visual Perception using large multi-modal model)は、視覚言語モデル(VLM)を用いて、人間の理解可能な概念を用いてDNNベースの知覚システムを推論、テスト、監視する。
これらのコンポーネントは、非公式な要件から検証済みの実装まで、包括的なパイプラインを提供する。
関連論文リスト
- Mechanistic understanding and validation of large AI models with SemanticLens [13.712668314238082]
航空機のような人間工学的なシステムとは異なり、AIモデルの内部動作はほとんど不透明である。
本稿では、コンポーネントによって符号化された隠れた知識をマッピングするニューラルネットワークの普遍的説明法であるSemanticLensを紹介する。
論文 参考訳(メタデータ) (2025-01-09T17:47:34Z) - AI Benchmarks and Datasets for LLM Evaluation [0.46960837342692324]
EU AI Actは、2024年3月13日に欧州議会が提出したEUAIActを引用し、AIシステムの開発、配備、使用に関するEU全体の最初の包括的な要件を定めている。
AIシステムによって引き起こされる技術的課題に効果的に対処するために、この方法論を実用的なベンチマークで強化する必要性を強調している。
私たちは、AIベンチマークの収集と分類を目的とした、AI Safety Bulgariaイニシアチブ(citeAI_Safety_Bulgaria)の一部として、プロジェクトをローンチした。
論文 参考訳(メタデータ) (2024-12-02T00:38:57Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Generative AI for Secure Physical Layer Communications: A Survey [80.0638227807621]
Generative Artificial Intelligence(GAI)は、AIイノベーションの最前線に立ち、多様なコンテンツを生成するための急速な進歩と非並行的な能力を示す。
本稿では,通信ネットワークの物理層におけるセキュリティ向上におけるGAIの様々な応用について,広範な調査を行う。
私たちは、物理的レイヤセキュリティの課題に対処する上で、GAIの役割を掘り下げ、通信の機密性、認証、可用性、レジリエンス、整合性に重点を置いています。
論文 参考訳(メタデータ) (2024-02-21T06:22:41Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。