論文の概要: Fast Bayesian Updates for Deep Learning with a Use Case in Active
Learning
- arxiv url: http://arxiv.org/abs/2210.06112v1
- Date: Wed, 12 Oct 2022 12:16:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 15:24:02.771178
- Title: Fast Bayesian Updates for Deep Learning with a Use Case in Active
Learning
- Title(参考訳): ディープラーニングのための高速ベイズ更新 : アクティブラーニングのユースケース
- Authors: Marek Herde and Zhixin Huang and Denis Huseljic and Daniel Kottke and
Stephan Vogt and Bernhard Sick
- Abstract要約: 新しいデータが到着したときのディープニューラルネットワークのリトレーニングは通常、計算コストがかかる。
高速ベイジアンアップデートはこの問題の解決策として考えられる。
私たちは、SNGPと組み合わせることで、コストのかかるリトレーニングの高速で競争力のある代替手段であることを示しています。
- 参考スコア(独自算出の注目度): 4.641634479967739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retraining deep neural networks when new data arrives is typically
computationally expensive. Moreover, certain applications do not allow such
costly retraining due to time or computational constraints. Fast Bayesian
updates are a possible solution to this issue. Therefore, we propose a Bayesian
update based on Monte-Carlo samples and a last-layer Laplace approximation for
different Bayesian neural network types, i.e., Dropout, Ensemble, and Spectral
Normalized Neural Gaussian Process (SNGP). In a large-scale evaluation study,
we show that our updates combined with SNGP represent a fast and competitive
alternative to costly retraining. As a use case, we combine the Bayesian
updates for SNGP with different sequential query strategies to exemplarily
demonstrate their improved selection performance in active learning.
- Abstract(参考訳): 新しいデータが到着したときのディープニューラルネットワークのリトレーニングは通常、計算コストがかかる。
さらに、時間や計算上の制約により、そのようなコストのかかる再訓練を許さないアプリケーションもある。
高速ベイジアンアップデートはこの問題の解決策として考えられる。
そこで本研究では,モンテカルロサンプルに基づくベイズ更新と,様々なベイズ型ニューラルネットワーク,すなわちドロップアウト,アンサンブル,スペクトル正規化ニューラルガウス過程(sngp)に対するラプラス近似を提案する。
大規模な評価研究において、SNGPと組み合わせたアップデートは、コストのかかるリトレーニングの高速かつ競争的な代替手段であることを示す。
ユースケースとして、SNGPのベイジアン更新と異なるシーケンシャルクエリ戦略を組み合わせることで、アクティブラーニングにおける選択性能の向上を実証する。
関連論文リスト
- Adaptive Anomaly Detection in Network Flows with Low-Rank Tensor Decompositions and Deep Unrolling [9.20186865054847]
異常検出(AD)は、将来の通信システムのレジリエンスを確保するための重要な要素として、ますます認識されている。
この研究は、不完全測定を用いたネットワークフローにおけるADについて考察する。
本稿では,正規化モデル適合性に基づくブロック帰属凸近似アルゴリズムを提案する。
ベイズ的アプローチに触発されて、我々はモデルアーキテクチャを拡張し、フローごとのオンライン適応とステップごとの統計処理を行う。
論文 参考訳(メタデータ) (2024-09-17T19:59:57Z) - Variational Linearized Laplace Approximation for Bayesian Deep Learning [11.22428369342346]
変分スパースガウス過程(GP)を用いた線形ラプラス近似(LLA)の近似法を提案する。
本手法はGPの2つのRKHSの定式化に基づいており、予測平均として元のDNNの出力を保持する。
効率のよい最適化が可能で、結果としてトレーニングデータセットのサイズのサブ線形トレーニング時間が短縮される。
論文 参考訳(メタデータ) (2023-02-24T10:32:30Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - A Deep Value-network Based Approach for Multi-Driver Order Dispatching [55.36656442934531]
そこで本研究では,注文発送のための深層強化学習に基づくソリューションを提案する。
DiDiの配車プラットフォーム上で大規模なオンラインA/Bテストを実施している。
その結果,CVNetは近年提案されているディスパッチ手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-06-08T16:27:04Z) - Task Agnostic Continual Learning Using Online Variational Bayes with
Fixed-Point Updates [28.662887957256913]
破滅的な忘れは、学習中のデータ分布の変化に対するニューラルネットワークの悪名高い脆弱性である。
オンライン変分ベイズ最適化問題に対する新しい不動点方程式を導出する。
非定常データ分散を処理できる連続学習のためのアルゴリズム(FOO-VB)を得る。
論文 参考訳(メタデータ) (2020-10-01T13:10:35Z) - Real-Time Regression with Dividing Local Gaussian Processes [62.01822866877782]
局所ガウス過程は、ガウス過程の回帰に基づく新しい、計算効率の良いモデリング手法である。
入力空間の反復的データ駆動分割により、実際にはトレーニングポイントの総数において、サブ線形計算複雑性が達成される。
実世界のデータセットに対する数値的な評価は、予測と更新の速度だけでなく、精度の点で他の最先端手法よりも有利であることを示している。
論文 参考訳(メタデータ) (2020-06-16T18:43:31Z) - Unbiased Deep Reinforcement Learning: A General Training Framework for
Existing and Future Algorithms [3.7050607140679026]
本稿では、概念的に理解可能で、強化学習のための全ての実行可能なアルゴリズムに一般化し易い、新しいトレーニングフレームワークを提案する。
我々はモンテカルロサンプリングを用いて生のデータ入力を実現し、マルコフ決定プロセスシーケンスを達成するためにバッチでそれらを訓練する。
我々は、典型的な離散的かつ連続的なシナリオを扱うために、新しいフレームワークに埋め込まれたアルゴリズムをいくつか提案する。
論文 参考訳(メタデータ) (2020-05-12T01:51:08Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - Large Batch Training Does Not Need Warmup [111.07680619360528]
大きなバッチサイズを使用してディープニューラルネットワークをトレーニングすることは、有望な結果を示し、多くの現実世界のアプリケーションに利益をもたらしている。
本稿では,大規模バッチ学習のための全層適応レートスケーリング(CLARS)アルゴリズムを提案する。
分析に基づいて,このギャップを埋め,3つの一般的な大規模バッチトレーニング手法の理論的洞察を提示する。
論文 参考訳(メタデータ) (2020-02-04T23:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。