論文の概要: Uncertainty Quantification and Resource-Demanding Computer Vision
Applications of Deep Learning
- arxiv url: http://arxiv.org/abs/2205.14917v1
- Date: Mon, 30 May 2022 08:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 14:43:34.735480
- Title: Uncertainty Quantification and Resource-Demanding Computer Vision
Applications of Deep Learning
- Title(参考訳): 不確かさの定量化とリソース要求型コンピュータビジョンの深層学習への応用
- Authors: Julian Burghoff, Robin Chan, Hanno Gottschalk, Annika Muetze, Tobias
Riedlinger, Matthias Rottmann, and Marius Schubert
- Abstract要約: ディープニューラルネットワーク(DNN)を安全クリティカルなアプリケーションに導入するには、モデルの不確実性を徹底的に扱う必要がある。
本稿では、新しいオブジェクトクラスに遭遇したとき、DNNに不確実性を示す方法について調査する。
また、不確実性定量化の助けを借りて、少数のラベルから学習する訓練方法を提案する。
- 参考スコア(独自算出の注目度): 5.130440339897478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bringing deep neural networks (DNNs) into safety critical applications such
as automated driving, medical imaging and finance, requires a thorough
treatment of the model's uncertainties. Training deep neural networks is
already resource demanding and so is also their uncertainty quantification. In
this overview article, we survey methods that we developed to teach DNNs to be
uncertain when they encounter new object classes. Additionally, we present
training methods to learn from only a few labels with help of uncertainty
quantification. Note that this is typically paid with a massive overhead in
computation of an order of magnitude and more compared to ordinary network
training. Finally, we survey our work on neural architecture search which is
also an order of magnitude more resource demanding then ordinary network
training.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)を自動化運転、医療画像、財務といった安全上の重要なアプリケーションに導入するには、モデルの不確実性を完全に扱う必要がある。
ディープニューラルネットワークのトレーニングはすでにリソースが必要であり、不確実性も定量化されている。
本稿では,新しいオブジェクトクラスに遭遇した場合に,DNNに不確実性を教えるために開発した手法について概説する。
さらに,不確実性定量化の助けを借りて,少数のラベルから学習するためのトレーニング手法を提案する。
これは通常、通常のネットワークトレーニングと比較して、桁違いに大きな計算オーバーヘッドを負っていることに注意してください。
最後に,本研究は,通常のネットワークトレーニングよりもリソース要求の桁違いな,ニューラルネットワーク探索の研究である。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - DeepCSHAP: Utilizing Shapley Values to Explain Deep Complex-Valued
Neural Networks [7.4841568561701095]
ディープニューラルネットワークは、アカデミーや企業や公共のアプリケーションで広く使われている。
アウトプットを説明する能力は、安全上の理由だけでなく、応募者の受け入れにも不可欠である。
複素数値ニューラルネットワークでの使用に適した4つの勾配に基づく説明法を提案する。
論文 参考訳(メタデータ) (2024-03-13T11:26:43Z) - Set-Based Training for Neural Network Verification [8.97708612393722]
小さな入力摂動はニューラルネットワークの出力に大きな影響を与える。
安全クリティカルな環境では、入力はノイズの多いセンサーデータを含むことが多い。
我々は、堅牢なニューラルネットワークをトレーニングして正式な検証を行う、エンドツーエンドのセットベーストレーニング手順を採用している。
論文 参考訳(メタデータ) (2024-01-26T15:52:41Z) - Deep Internal Learning: Deep Learning from a Single Input [88.59966585422914]
多くの場合、手元にある入力からネットワークをトレーニングする価値がある。
これは、トレーニングデータが少なく、多様性が大きい多くの信号および画像処理問題に特に関係している。
本研究の目的は,この2つの重要な方向に向けて,過去数年間に提案されてきた深層学習技術について報告することである。
論文 参考訳(メタデータ) (2023-12-12T16:48:53Z) - Generalized Uncertainty of Deep Neural Networks: Taxonomy and
Applications [1.9671123873378717]
ディープニューラルネットワークの不確実性は、解釈可能性と透明性の感覚において重要であるだけでなく、パフォーマンスをさらに向上するためにも重要であることを示す。
我々は、ディープニューラルネットワークの不確実性の定義を、入力またはインプットラベルペアに関連する任意の数またはベクトルに一般化し、そのような不確かさをディープモデルから「マイニングに関する既存の方法」をカタログ化する。
論文 参考訳(メタデータ) (2023-02-02T22:02:33Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Deep Binary Reinforcement Learning for Scalable Verification [44.44006029119672]
バイナライズニューラルネットワーク(BNN)に特化したRLアルゴリズムを提案する。
Atari環境でBNNを訓練した後、ロバスト性特性を検証する。
論文 参考訳(メタデータ) (2022-03-11T01:20:23Z) - Pruning and Slicing Neural Networks using Formal Verification [0.2538209532048866]
ディープニューラルネットワーク(DNN)は、様々なコンピュータシステムにおいてますます重要な役割を担っている。
これらのネットワークを作成するために、エンジニアは通常、望ましいトポロジを指定し、自動トレーニングアルゴリズムを使用してネットワークの重みを選択する。
本稿では,近年のDNN検証の進歩を活用して,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-05-28T07:53:50Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。