論文の概要: NeuroStrata: Harnessing Neurosymbolic Paradigms for Improved Design, Testability, and Verifiability of Autonomous CPS
- arxiv url: http://arxiv.org/abs/2502.12267v1
- Date: Mon, 17 Feb 2025 19:07:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:09:07.817061
- Title: NeuroStrata: Harnessing Neurosymbolic Paradigms for Improved Design, Testability, and Verifiability of Autonomous CPS
- Title(参考訳): NeuroStrata: 自律型CPSの設計, テスト性, 検証性向上のためのハーネスングニューロシンボリックパラダイム
- Authors: Xi Zheng, Ziyang Li, Ivan Ruchkin, Ruzica Piskac, Miroslav Pajic,
- Abstract要約: 本稿では,自律型CPSの試験と検証を強化するニューロシンボリック・フレームワークであるNeuroStrataを紹介する。
主要なコンポーネントの概要、初期の成果、今後の計画について詳述する。
- 参考スコア(独自算出の注目度): 14.045444053581345
- License:
- Abstract: Autonomous cyber-physical systems (CPSs) leverage AI for perception, planning, and control but face trust and safety certification challenges due to inherent uncertainties. The neurosymbolic paradigm replaces stochastic layers with interpretable symbolic AI, enabling determinism. While promising, challenges like multisensor fusion, adaptability, and verification remain. This paper introduces NeuroStrata, a neurosymbolic framework to enhance the testing and verification of autonomous CPS. We outline its key components, present early results, and detail future plans.
- Abstract(参考訳): 自律型サイバー物理システム(CPS)は、認識、計画、制御にAIを活用するが、固有の不確実性のため、信頼性と安全性の保証課題に直面している。
ニューロシンボリックパラダイムは確率的層を解釈可能なシンボリックAIに置き換え、決定性を実現する。
有望ではあるが、マルチセンサー融合、適応性、検証といった課題は残る。
本稿では,自律型CPSの試験と検証を強化するニューロシンボリック・フレームワークであるNeuroStrataを紹介する。
主要なコンポーネントの概要、初期の成果、今後の計画について詳述する。
関連論文リスト
- On the Promise for Assurance of Differentiable Neurosymbolic Reasoning Paradigms [9.071347361654931]
我々は、データ効率のモデルを作成する新しい手法である、エンド・ツー・エンドの完全微分可能なニューロシンボリックシステムの保証を評価する。
エンド・ツー・エンドのニューロシンボリックな手法は、データ効率を超える保証のユニークな機会を提示する。
論文 参考訳(メタデータ) (2025-02-13T03:29:42Z) - Neurosymbolic Conformal Classification [6.775534755081169]
過去数十年間、機械学習(ML)は大幅に改善され、主にディープラーニング(DL)によって駆動された。
多くの領域におけるMLの成功にもかかわらず、適合性の保証やMLシステムの脆弱性を提供することの不可能さは、信頼できるAIシステムの設計を妨げている。
この脆弱性を緩和し、MLシステムの動作に関するいくつかの保証を提供するために、いくつかの研究パスが研究されている。
論文 参考訳(メタデータ) (2024-09-20T15:38:34Z) - Towards Efficient Neuro-Symbolic AI: From Workload Characterization to Hardware Architecture [22.274696991107206]
ニューロシンボリックAIは、解釈可能性、堅牢性、信頼性を高めるニューラルネットワークとシンボリックアプローチを融合して、有望なパラダイムとして出現する。
最近のニューロシンボリックシステムは、推論と認知能力を備えた協調的な人間-AIシナリオにおいて大きな可能性を示している。
まず, ニューロシンボリックAIアルゴリズムを体系的に分類し, 実行時, メモリ, 計算演算子, 疎結合性, システム特性を実験的に評価し, 解析する。
論文 参考訳(メタデータ) (2024-09-20T01:32:14Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Towards Cognitive AI Systems: a Survey and Prospective on Neuro-Symbolic
AI [33.0761784111292]
ニューロシンボリックAIは、解釈可能性、堅牢性、信頼性を高めるための有望なパラダイムとして登場します。
近年のNSAIシステムは、推論と認知能力を備えた協調的な人間-AIシナリオにおいて大きな可能性を実証している。
論文 参考訳(メタデータ) (2024-01-02T05:00:54Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Neuro-symbolic Explainable Artificial Intelligence Twin for Zero-touch
IoE in Wireless Network [61.90504487270785]
説明可能な人工知能(XAI)双対システムは、ゼロタッチネットワークとサービス管理(ZSM)の基本的な実現要因となる。
ZSMのための信頼性の高いXAIツインシステムは、すべてのインターネット(IoE)の物理的振る舞いを識別する極端な分析能力と、そのような振る舞いの推論を特徴付ける厳密な方法の2つの合成を必要とする。
無線IoEのための信頼性の高いZSMを実現するために、新しいニューロシンボリックな説明可能な人工知能ツインフレームワークが提案されている。
論文 参考訳(メタデータ) (2022-10-13T01:08:06Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Neurosymbolic AI: The 3rd Wave [1.14219428942199]
AIの信頼、安全性、解釈可能性、説明責任に関する懸念は、影響力のある思想家によって提起された。
多くは、知識表現と推論を深層学習に統合する必要性を認識している。
ニューラル・シンボリック・コンピューティングは、推論と説明可能性を備えた堅牢な学習をニューラルネットワークで組み合わせようとする研究の活発な領域である。
論文 参考訳(メタデータ) (2020-12-10T18:31:38Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Neuro-symbolic Neurodegenerative Disease Modeling as Probabilistic
Programmed Deep Kernels [93.58854458951431]
本稿では、神経変性疾患のパーソナライズされた予測モデリングのための、確率的プログラムによる深層カーネル学習手法を提案する。
我々の分析は、ニューラルネットワークとシンボリック機械学習のアプローチのスペクトルを考慮する。
我々は、アルツハイマー病の予測問題について評価を行い、深層学習を超越した結果を得た。
論文 参考訳(メタデータ) (2020-09-16T15:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。