論文の概要: Selective Inference for Changepoint detection by Recurrent Neural
Network
- arxiv url: http://arxiv.org/abs/2311.14964v1
- Date: Sat, 25 Nov 2023 08:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 22:46:35.424984
- Title: Selective Inference for Changepoint detection by Recurrent Neural
Network
- Title(参考訳): リカレントニューラルネットワークによる変化点検出の選択的推定
- Authors: Tomohiro Shiraishi, Daiki Miwa, Vo Nguyen Le Duy, Ichiro Takeuchi
- Abstract要約: リカレントニューラルネットワーク(RNN)を用いた時系列における検出された変化点(CP)の統計的信頼性について検討する。
その柔軟性のおかげで、RNNは複雑なダイナミクスによって特徴づけられる時系列におけるCPを効果的に識別する可能性を持っている。
本研究の主な目的は、RNNが検出したCPに理論的に有効なp値を提供することにより、誤検出のリスクを厳格に制御することである。
- 参考スコア(独自算出の注目度): 23.35466397627952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we investigate the quantification of the statistical
reliability of detected change points (CPs) in time series using a Recurrent
Neural Network (RNN). Thanks to its flexibility, RNN holds the potential to
effectively identify CPs in time series characterized by complex dynamics.
However, there is an increased risk of erroneously detecting random noise
fluctuations as CPs. The primary goal of this study is to rigorously control
the risk of false detections by providing theoretically valid p-values to the
CPs detected by RNN. To achieve this, we introduce a novel method based on the
framework of Selective Inference (SI). SI enables valid inferences by
conditioning on the event of hypothesis selection, thus mitigating selection
bias. In this study, we apply SI framework to RNN-based CP detection, where
characterizing the complex process of RNN selecting CPs is our main technical
challenge. We demonstrate the validity and effectiveness of the proposed method
through artificial and real data experiments.
- Abstract(参考訳): 本研究では,リカレントニューラルネットワーク(RNN)を用いた時系列における検出された変化点(CP)の統計的信頼性の定量化について検討した。
その柔軟性のおかげで、RNNは複雑なダイナミクスによって特徴づけられる時系列におけるCPを効果的に識別する可能性を持っている。
しかし、CPとしてランダムノイズ変動を誤って検出するリスクが増大している。
本研究の目的は,RNNが検出したCPに理論的に有効なp値を提供することにより,誤検出のリスクを厳格に制御することである。
そこで我々は,選択推論(Selective Inference, SI)の枠組みに基づく新しい手法を提案する。
SIは仮説選択の事象を条件付けすることで有効な推論を可能にし、選択バイアスを緩和する。
本研究では, RNNによるCP検出にSIフレームワークを適用し, RNNによるCP選択の複雑なプロセスの特徴付けが主な技術的課題である。
人工および実データ実験により提案手法の有効性と有効性を示す。
関連論文リスト
- Probabilistic Neural Networks (PNNs) for Modeling Aleatoric Uncertainty
in Scientific Machine Learning [2.348041867134616]
本稿では,確率論的ニューラルネットワーク(PNN)を用いてアレータティック不確実性をモデル化する。
PNNはターゲット変数の確率分布を生成し、回帰シナリオにおける予測平均と間隔の両方を決定できる。
実世界の科学機械学習の文脈では、PNNはR2乗のスコアが0.97に近づき、その予測間隔は0.80に近い高い相関係数を示す。
論文 参考訳(メタデータ) (2024-02-21T17:15:47Z) - Failure-informed adaptive sampling for PINNs [5.723850818203907]
物理学インフォームドニューラルネットワーク(PINN)は、幅広い領域でPDEを解決する効果的な手法として登場した。
しかし、最近の研究では、異なるサンプリング手順でPINNの性能が劇的に変化することが示されている。
本稿では,信頼度分析の視点から,故障インフォームドPINNという適応的手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T13:34:41Z) - Path classification by stochastic linear recurrent neural networks [2.5499055723658097]
トレーニングや分類作業に利用されるユニークな情報として,RNNが供給される経路の部分的なシグネチャを保持することを示す。
これらのRNNは訓練が容易で堅牢であり、これらの観測を合成データと実データの両方で数値実験で裏付けるものである、と我々は主張する。
論文 参考訳(メタデータ) (2021-08-06T12:59:12Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - Quantifying Statistical Significance of Neural Network-based Image
Segmentation by Selective Inference [23.97765106673937]
我々は条件選択推論(SI)フレームワークを用いて、セグメンテーション結果の正確な(漸近的でない)p-値を計算する。
提案手法は, 偽陽性率の制御に成功し, 計算効率も良好であり, 医用画像データに適用した場合の良好な結果が得られる。
論文 参考訳(メタデータ) (2020-10-05T07:16:40Z) - Multi-Sample Online Learning for Probabilistic Spiking Neural Networks [43.8805663900608]
スパイキングニューラルネットワーク(SNN)は、推論と学習のための生物学的脳の効率の一部をキャプチャする。
本稿では,一般化予測最大化(GEM)に基づくオンライン学習ルールを提案する。
標準ニューロモルフィックデータセットにおける構造化された出力記憶と分類実験の結果,ログの類似性,精度,キャリブレーションの点で大きな改善が見られた。
論文 参考訳(メタデータ) (2020-07-23T10:03:58Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。