論文の概要: Agreeing to Stop: Reliable Latency-Adaptive Decision Making via
Ensembles of Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2310.16675v1
- Date: Wed, 25 Oct 2023 14:40:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 14:11:30.305824
- Title: Agreeing to Stop: Reliable Latency-Adaptive Decision Making via
Ensembles of Spiking Neural Networks
- Title(参考訳): 停止に同意する: スパイクニューラルネットワークのアンサンブルによる信頼性の高いレイテンシ適応的意思決定
- Authors: Jiechen Chen, Sangwoo Park, and Osvaldo Simeone
- Abstract要約: スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、入力時系列の間隔を利用して分類などのタスクを効率的に実行することができる反復モデルである。
本稿では,SNNの信頼性向上を目的としたアンサンブルモデルの実装により,SNNの不確実性を高めることを提案する。
- 参考スコア(独自算出の注目度): 36.14499894307206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) are recurrent models that can leverage
sparsity in input time series to efficiently carry out tasks such as
classification. Additional efficiency gains can be obtained if decisions are
taken as early as possible as a function of the complexity of the input time
series. The decision on when to stop inference and produce a decision must rely
on an estimate of the current accuracy of the decision. Prior work demonstrated
the use of conformal prediction (CP) as a principled way to quantify
uncertainty and support adaptive-latency decisions in SNNs. In this paper, we
propose to enhance the uncertainty quantification capabilities of SNNs by
implementing ensemble models for the purpose of improving the reliability of
stopping decisions. Intuitively, an ensemble of multiple models can decide when
to stop more reliably by selecting times at which most models agree that the
current accuracy level is sufficient. The proposed method relies on different
forms of information pooling from ensemble models, and offers theoretical
reliability guarantees. We specifically show that variational inference-based
ensembles with p-variable pooling significantly reduce the average latency of
state-of-the-art methods, while maintaining reliability guarantees.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、入力時系列の間隔を利用して分類などのタスクを効率的に実行できる反復モデルである。
入力時系列の複雑さの関数としてできるだけ早く決定が取られれば、さらなる効率向上が得られる。
推論を中止して意思決定を行う際の決定は、その決定の現在の正確さの見積に依存する必要がある。
先行研究は、不確実性を定量化し、SNNにおける適応レイテンシ決定をサポートするための原則的な方法として、共形予測(CP)の使用を実証した。
本稿では,停止決定の信頼性向上を目的としたアンサンブルモデルを実装することにより,SNNの不確実性定量化能力の向上を提案する。
直感的には、複数のモデルのアンサンブルは、現在の精度レベルが十分であることをほとんどのモデルが合意する時間を選択することで、いつより確実に停止するかを決定することができる。
提案手法は,アンサンブルモデルと異なる形式の情報プールに依存し,理論的信頼性を保証する。
特に,p変数プーリングによる変分推論に基づくアンサンブルは,信頼性を確保しつつ,最先端手法の平均遅延を著しく低減することを示す。
関連論文リスト
- Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - UPNet: Uncertainty-based Picking Deep Learning Network for Robust First Break Picking [6.380128763476294]
第一破砕(FB)ピッキングは地下速度モデルの決定において重要な側面である。
この処理を高速化するために、ディープニューラルネットワーク(DNN)が提案されている。
本稿では、FB選択タスクに不確実性定量化を導入し、UPNetと呼ばれる新しい不確実性に基づくディープラーニングネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T08:13:09Z) - Knowing When to Stop: Delay-Adaptive Spiking Neural Network Classifiers with Reliability Guarantees [36.14499894307206]
スパイキングニューラルネットワーク(SNN)は、内部イベント駆動型ニューラルネットワークを通じて時系列データを処理する。
本稿では,入力依存停止時に発生する決定に対して,信頼性を保証する新しい遅延適応型SNNベースの推論手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T22:11:04Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Uncertainty Estimation and Calibration with Finite-State Probabilistic
RNNs [29.84563789289183]
不確かさの定量化は、信頼性と信頼性のある機械学習システムを構築するために不可欠である。
本稿では、リカレントニューラルネットワーク(RNN)における離散状態遷移による不確実性の推定を提案する。
モデルの不確実性は、繰り返し状態遷移分布からサンプリングするたびに、予測を数回実行することで定量化することができる。
論文 参考訳(メタデータ) (2020-11-24T10:35:28Z) - Multi-Loss Sub-Ensembles for Accurate Classification with Uncertainty
Estimation [1.2891210250935146]
本稿では,ディープニューラルネットワーク(DNN)の高精度な不確実性推定手法を提案する。
我々は,Deep-Sub-Ensembles法によって提案される利点を利用して,推定時間を比較的低く保つ。
その結果,いくつかの不確実性対策における分類課題と競争結果の精度が向上した。
論文 参考訳(メタデータ) (2020-10-05T10:59:11Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。