論文の概要: Runtime Safety Monitoring of Deep Neural Networks for Perception: A Survey
- arxiv url: http://arxiv.org/abs/2511.05982v1
- Date: Sat, 08 Nov 2025 12:06:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.694596
- Title: Runtime Safety Monitoring of Deep Neural Networks for Perception: A Survey
- Title(参考訳): 知覚のためのディープニューラルネットワークの実行時安全性モニタリング:サーベイ
- Authors: Albert Schotschneider, Svetlana Pavlitska, J. Marius Zöllner,
- Abstract要約: ディープニューラルネットワーク(Deep Neural Network, DNN)は、自律運転やロボット工学などの安全クリティカルなアプリケーションに対する認識システムで広く使われている。
DNNは、一般化エラー、アウト・オブ・ディストリビューション(OOD)インプット、敵攻撃など、さまざまな安全上の問題に対して脆弱なままである。
本調査では,ランタイムの安全性監視アプローチの概要を概観する。
- 参考スコア(独自算出の注目度): 11.690579189801939
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks (DNNs) are widely used in perception systems for safety-critical applications, such as autonomous driving and robotics. However, DNNs remain vulnerable to various safety concerns, including generalization errors, out-of-distribution (OOD) inputs, and adversarial attacks, which can lead to hazardous failures. This survey provides a comprehensive overview of runtime safety monitoring approaches, which operate in parallel to DNNs during inference to detect these safety concerns without modifying the DNN itself. We categorize existing methods into three main groups: Monitoring inputs, internal representations, and outputs. We analyze the state-of-the-art for each category, identify strengths and limitations, and map methods to the safety concerns they address. In addition, we highlight open challenges and future research directions.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Network, DNN)は、自律運転やロボット工学などの安全クリティカルなアプリケーションに対する認識システムで広く使われている。
しかし、DNNは、一般化エラー、アウト・オブ・ディストリビューション(OOD)インプット、敵攻撃など、様々な安全上の懸念に弱いままであり、有害な障害を引き起こす可能性がある。
この調査は、DNN自体を変更することなく、これらの安全性上の懸念を検出するために、DNNと並行して動作するランタイム安全監視アプローチの概要を提供する。
既存の手法を,入力,内部表現,出力の3つのグループに分類する。
各カテゴリの最先端を解析し、強度と限界を特定し、対処する安全性の懸念にメソッドをマップする。
さらに、オープンな課題と今後の研究方向性を強調します。
関連論文リスト
- Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - gRoMA: a Tool for Measuring the Global Robustness of Deep Neural
Networks [3.2228025627337864]
ディープニューラルネットワーク(DNN)は最先端技術の最前線にあり、さまざまな複雑なタスクにおいて顕著なパフォーマンスを実現している。
航空宇宙分野や自動車分野などの安全クリティカルシステムへの統合は、敵の入力の脅威のために大きな課題となる。
本稿では,DNNのグローバルな分類的ロバスト性を測定するための確率論的アプローチを実装した,革新的でスケーラブルなツールであるgRoMAを紹介する。
論文 参考訳(メタデータ) (2023-01-05T20:45:23Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Supporting DNN Safety Analysis and Retraining through Heatmap-based
Unsupervised Learning [1.6414392145248926]
本稿では,DNNエラーの根本原因の自動同定を支援するHUDDを提案する。
HUDDは、結果に対する全てのDNNニューロンの関連性を捉えたヒートマップにクラスタリングアルゴリズムを適用することで、根本原因を特定する。
また、HUDDは識別された画像クラスタと関連性に基づいて自動的に選択される画像でDNNを再訓練する。
論文 参考訳(メタデータ) (2020-02-03T16:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。