論文の概要: Uncertainty Quantification and Resource-Demanding Computer Vision
Applications of Deep Learning
- arxiv url: http://arxiv.org/abs/2205.14917v1
- Date: Mon, 30 May 2022 08:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 14:43:34.735480
- Title: Uncertainty Quantification and Resource-Demanding Computer Vision
Applications of Deep Learning
- Title(参考訳): 不確かさの定量化とリソース要求型コンピュータビジョンの深層学習への応用
- Authors: Julian Burghoff, Robin Chan, Hanno Gottschalk, Annika Muetze, Tobias
Riedlinger, Matthias Rottmann, and Marius Schubert
- Abstract要約: ディープニューラルネットワーク(DNN)を安全クリティカルなアプリケーションに導入するには、モデルの不確実性を徹底的に扱う必要がある。
本稿では、新しいオブジェクトクラスに遭遇したとき、DNNに不確実性を示す方法について調査する。
また、不確実性定量化の助けを借りて、少数のラベルから学習する訓練方法を提案する。
- 参考スコア(独自算出の注目度): 5.130440339897478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bringing deep neural networks (DNNs) into safety critical applications such
as automated driving, medical imaging and finance, requires a thorough
treatment of the model's uncertainties. Training deep neural networks is
already resource demanding and so is also their uncertainty quantification. In
this overview article, we survey methods that we developed to teach DNNs to be
uncertain when they encounter new object classes. Additionally, we present
training methods to learn from only a few labels with help of uncertainty
quantification. Note that this is typically paid with a massive overhead in
computation of an order of magnitude and more compared to ordinary network
training. Finally, we survey our work on neural architecture search which is
also an order of magnitude more resource demanding then ordinary network
training.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)を自動化運転、医療画像、財務といった安全上の重要なアプリケーションに導入するには、モデルの不確実性を完全に扱う必要がある。
ディープニューラルネットワークのトレーニングはすでにリソースが必要であり、不確実性も定量化されている。
本稿では,新しいオブジェクトクラスに遭遇した場合に,DNNに不確実性を教えるために開発した手法について概説する。
さらに,不確実性定量化の助けを借りて,少数のラベルから学習するためのトレーニング手法を提案する。
これは通常、通常のネットワークトレーニングと比較して、桁違いに大きな計算オーバーヘッドを負っていることに注意してください。
最後に,本研究は,通常のネットワークトレーニングよりもリソース要求の桁違いな,ニューラルネットワーク探索の研究である。
関連論文リスト
- DeepCSHAP: Utilizing Shapley Values to Explain Deep Complex-Valued
Neural Networks [7.4841568561701095]
ディープニューラルネットワークは、アカデミーや企業や公共のアプリケーションで広く使われている。
アウトプットを説明する能力は、安全上の理由だけでなく、応募者の受け入れにも不可欠である。
複素数値ニューラルネットワークでの使用に適した4つの勾配に基づく説明法を提案する。
論文 参考訳(メタデータ) (2024-03-13T11:26:43Z) - Deep Internal Learning: Deep Learning from a Single Input [96.78876998914811]
多くの場合、手元にある入力からネットワークをトレーニングする価値がある。
これは、単一の入力を使用してネットワークをゼロからトレーニングすることや、すでにトレーニング済みのネットワークを推論時に提供された入力例に適応することを含む。
本研究の目的は,この2つの重要な方向に向けて,過去数年間に提案されてきた深層学習技術について報告することである。
論文 参考訳(メタデータ) (2023-12-12T16:48:53Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Generalized Uncertainty of Deep Neural Networks: Taxonomy and
Applications [1.9671123873378717]
ディープニューラルネットワークの不確実性は、解釈可能性と透明性の感覚において重要であるだけでなく、パフォーマンスをさらに向上するためにも重要であることを示す。
我々は、ディープニューラルネットワークの不確実性の定義を、入力またはインプットラベルペアに関連する任意の数またはベクトルに一般化し、そのような不確かさをディープモデルから「マイニングに関する既存の方法」をカタログ化する。
論文 参考訳(メタデータ) (2023-02-02T22:02:33Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Deep Binary Reinforcement Learning for Scalable Verification [44.44006029119672]
バイナライズニューラルネットワーク(BNN)に特化したRLアルゴリズムを提案する。
Atari環境でBNNを訓練した後、ロバスト性特性を検証する。
論文 参考訳(メタデータ) (2022-03-11T01:20:23Z) - Pruning and Slicing Neural Networks using Formal Verification [0.2538209532048866]
ディープニューラルネットワーク(DNN)は、様々なコンピュータシステムにおいてますます重要な役割を担っている。
これらのネットワークを作成するために、エンジニアは通常、望ましいトポロジを指定し、自動トレーニングアルゴリズムを使用してネットワークの重みを選択する。
本稿では,近年のDNN検証の進歩を活用して,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-05-28T07:53:50Z) - Neural Network-based Quantization for Network Automation [0.7034976835586089]
k-Meansアルゴリズムの修正であるBounding Sphere Quantization (BSQ)アルゴリズムを導入し、特定のネットワーク管理ユースケースの量子化を改善することを示した。
BSQは、ニューラルネットワークベースの実装で克服できる課題であるk-Meansよりもトレーニングにかなり長い時間を要しました。
本稿では,最先端のディープラーニングツールを用いて,競争力のあるトレーニング速度を実現するBSQの実装を提案する。
論文 参考訳(メタデータ) (2021-03-04T11:41:19Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。