論文の概要: Get Global Guarantees: On the Probabilistic Nature of Perturbation Robustness
- arxiv url: http://arxiv.org/abs/2508.19183v1
- Date: Tue, 26 Aug 2025 16:41:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.91944
- Title: Get Global Guarantees: On the Probabilistic Nature of Perturbation Robustness
- Title(参考訳): グローバルな保証を得る - 摂動ロバストネスの確率論的性質について
- Authors: Wenchuan Mu, Kwan Hui Lim,
- Abstract要約: 安全クリティカルなディープラーニングアプリケーションでは、ロバストネスは入力データの知覚できない摂動を処理するニューラルネットワークの能力を測定する。
既存の展開前のロバスト性評価手法では、計算コストと測定精度の間に大きなトレードオフが生じるのが普通である。
本稿では,仮説テストに基づく新しい実測値であるロバスト性を評価するために,塔のロバスト性を提案する。
- 参考スコア(独自算出の注目度): 10.738378139028976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In safety-critical deep learning applications, robustness measures the ability of neural models that handle imperceptible perturbations in input data, which may lead to potential safety hazards. Existing pre-deployment robustness assessment methods typically suffer from significant trade-offs between computational cost and measurement precision, limiting their practical utility. To address these limitations, this paper conducts a comprehensive comparative analysis of existing robustness definitions and associated assessment methodologies. We propose tower robustness to evaluate robustness, which is a novel, practical metric based on hypothesis testing to quantitatively evaluate probabilistic robustness, enabling more rigorous and efficient pre-deployment assessments. Our extensive comparative evaluation illustrates the advantages and applicability of our proposed approach, thereby advancing the systematic understanding and enhancement of model robustness in safety-critical deep learning applications.
- Abstract(参考訳): 安全クリティカルなディープラーニングアプリケーションでは、ロバストネスは入力データの知覚できない摂動を処理するニューラルネットワークの能力を測定し、潜在的な安全性の危険をもたらす可能性がある。
既存の展開前のロバスト性評価手法は、計算コストと測定精度の間の大きなトレードオフに悩まされ、実用性は制限される。
これらの制約に対処するため,本稿では,既存のロバスト性定義と関連する評価手法の総合的比較分析を行う。
本研究では,確率的ロバスト性を定量的に評価し,より厳密で効率的な事前配置評価を可能にする仮説テストに基づく,新しい実用的尺度であるロバスト性評価のためのタワーロバスト性を提案する。
提案手法の利点と適用性を示し,安全クリティカルなディープラーニングアプリケーションにおけるモデルロバスト性の体系的理解と強化を促進する。
関連論文リスト
- Advancing Embodied Agent Security: From Safety Benchmarks to Input Moderation [52.83870601473094]
エンボディード・エージェントは、複数のドメインにまたがって大きな潜在能力を示す。
既存の研究は主に、一般的な大言語モデルのセキュリティに重点を置いている。
本稿では, エンボディエージェントの保護を目的とした新しい入力モデレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T08:34:35Z) - Probabilistic Robustness in Deep Learning: A Concise yet Comprehensive Guide [2.152298082788376]
確率的堅牢性(PR)は、摂動下での失敗の可能性を定量化することによって、より実践的な視点を提供する。
本稿では,その形式的定義,評価,拡張手法を網羅した,簡潔かつ包括的なPRの概要を提供する。
本稿では,PR検証証拠をシステムレベルの安全性保証に統合し,DLモデルレベルの堅牢性をシステムレベルの請求に翻訳する上での課題に対処する。
論文 参考訳(メタデータ) (2025-02-20T18:47:17Z) - A practical approach to evaluating the adversarial distance for machine learning classifiers [2.2120851074630177]
本稿では,反復的対角攻撃と認証手法を用いたより情報性の高い対角距離の推定について検討する。
我々は,我々の敵攻撃アプローチが関連する実装と比較して有効であるのに対して,認証手法は期待に届かなかった。
論文 参考訳(メタデータ) (2024-09-05T14:57:01Z) - Towards Precise Observations of Neural Model Robustness in Classification [2.127049691404299]
ディープラーニングアプリケーションでは、ロバストネスは入力データのわずかな変化を処理するニューラルネットワークの能力を測定する。
私たちのアプローチは、安全クリティカルなアプリケーションにおけるモデルロバストネスのより深い理解に寄与します。
論文 参考訳(メタデータ) (2024-04-25T09:37:44Z) - Boosting Adversarial Robustness using Feature Level Stochastic Smoothing [46.86097477465267]
敵の防御は、ディープニューラルネットワークの堅牢性を大幅に向上させた。
本研究では,ネットワーク予測における導入性に関する一般的な手法を提案する。
また、信頼性の低い予測を拒否する意思決定の円滑化にも活用する。
論文 参考訳(メタデータ) (2023-06-10T15:11:24Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。