論文の概要: Capsa: A Unified Framework for Quantifying Risk in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2308.00231v1
- Date: Tue, 1 Aug 2023 02:07:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 15:39:28.357002
- Title: Capsa: A Unified Framework for Quantifying Risk in Deep Neural Networks
- Title(参考訳): Capsa: ディープニューラルネットワークのリスクを定量化する統一フレームワーク
- Authors: Sadhana Lolla, Iaroslav Elistratov, Alejandro Perez, Elaheh Ahmadi,
Daniela Rus, Alexander Amini
- Abstract要約: ディープニューラルネットワークにリスク認識を提供する既存のアルゴリズムは複雑でアドホックである。
ここでは、リスク認識でモデルを拡張するためのフレームワークであるcapsaを紹介します。
- 参考スコア(独自算出の注目度): 142.67349734180445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The modern pervasiveness of large-scale deep neural networks (NNs) is driven
by their extraordinary performance on complex problems but is also plagued by
their sudden, unexpected, and often catastrophic failures, particularly on
challenging scenarios. Existing algorithms that provide risk-awareness to NNs
are complex and ad-hoc. Specifically, these methods require significant
engineering changes, are often developed only for particular settings, and are
not easily composable. Here we present capsa, a framework for extending models
with risk-awareness. Capsa provides a methodology for quantifying multiple
forms of risk and composing different algorithms together to quantify different
risk metrics in parallel. We validate capsa by implementing state-of-the-art
uncertainty estimation algorithms within the capsa framework and benchmarking
them on complex perception datasets. We demonstrate capsa's ability to easily
compose aleatoric uncertainty, epistemic uncertainty, and bias estimation
together in a single procedure, and show how this approach provides a
comprehensive awareness of NN risk.
- Abstract(参考訳): 大規模ディープニューラルネットワーク(NN)の現代的普及は、複雑な問題に対する異常なパフォーマンスによってもたらされるが、特に困難なシナリオにおいて、突然、予期せぬ、しばしば破滅的な失敗に悩まされている。
NNにリスク認識を提供する既存のアルゴリズムは複雑でアドホックである。
具体的には、これらの手法は重要なエンジニアリング変更を必要とし、しばしば特定の設定のためにのみ開発され、簡単には構成できない。
ここではリスク認識でモデルを拡張するためのフレームワークであるcapsaを紹介する。
capsaは、さまざまなリスクメトリクスを並列に定量化するために、複数の形式のリスクを定量化し、異なるアルゴリズムを組み合わせるための方法論を提供する。
capsaフレームワーク内で最先端の不確実性推定アルゴリズムを実装し、複雑な知覚データセットにベンチマークすることで、capsaを検証する。
そこで本研究では,capsa が aleatoric uncertainty, epistemic uncertainty, bias estimation を単一手続きで容易に構成できることを示し,このアプローチがnn リスクの包括的認識にどのように寄与するかを示す。
関連論文リスト
- Computability of Classification and Deep Learning: From Theoretical Limits to Practical Feasibility through Quantization [53.15874572081944]
ディープラーニングフレームワークにおける計算可能性について,2つの観点から検討する。
根底にある問題が十分に解決された場合でも、ディープニューラルネットワークを訓練する際のアルゴリズム上の制限を示す。
最後に、分類と深層ネットワークトレーニングの定量化バージョンにおいて、計算可能性の制限は発生せず、一定の程度まで克服可能であることを示す。
論文 参考訳(メタデータ) (2024-08-12T15:02:26Z) - Echoes of Socratic Doubt: Embracing Uncertainty in Calibrated Evidential Reinforcement Learning [1.7898305876314982]
提案アルゴリズムは,共形推論の原理に基づいて,深い明解学習と量子キャリブレーションを組み合わせる。
ミニチュア化されたアタリゲームスイート(MinAtar)でテストされる。
論文 参考訳(メタデータ) (2024-02-11T05:17:56Z) - The Boundaries of Verifiable Accuracy, Robustness, and Generalisation in Deep Learning [71.14237199051276]
経験的リスクを最小限に抑えるため,古典的な分布に依存しないフレームワークとアルゴリズムを検討する。
理想的な安定かつ正確なニューラルネットワークの計算と検証が極めて難しいタスク群が存在することを示す。
論文 参考訳(メタデータ) (2023-09-13T16:33:27Z) - It begins with a boundary: A geometric view on probabilistically robust learning [6.877576704011329]
我々はそのような方法の1つの新鮮で幾何学的な見方を取る --確率論的ロバスト学習(PRL)
我々は, 新規緩和法を用いて, オリジナルおよび修正問題の解が存在することを証明した。
また,適切な$Gamma$-convergence解析により,原型および修正型PRLモデルがリスク最小化と対向トレーニングの間を介在する方法を明らかにした。
論文 参考訳(メタデータ) (2023-05-30T06:24:30Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Towards the Quantification of Safety Risks in Deep Neural Networks [9.161046484753841]
本稿では,ネットワークの判断と人間の知覚との整合性を求めることによって,安全性のリスクを定義する。
リスクの定量化には、安全リスクが存在しない安全な標準球の最大半径を取る。
この論文では、既知の敵の例、到達可能性の例、不変例に加えて、新しいタイプのリスク - 不確実な例を特定する。
論文 参考訳(メタデータ) (2020-09-13T23:30:09Z) - Entropic Risk Constrained Soft-Robust Policy Optimization [12.362670630646805]
モデル不確実性によって引き起こされるリスクを定量化し、管理することは、高リスク領域において重要である。
本稿では,モデルの不確実性に対するリスクに反する,エントロピー的リスク制約付きポリシー勾配とアクタ批判アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-20T23:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。