論文の概要: PAC-Bayesian bounds for learning LTI-ss systems with input from
empirical loss
- arxiv url: http://arxiv.org/abs/2303.16816v1
- Date: Wed, 29 Mar 2023 16:06:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 14:03:07.314966
- Title: PAC-Bayesian bounds for learning LTI-ss systems with input from
empirical loss
- Title(参考訳): 経験的損失から入力したlti-ss学習のためのpac-ベイズ境界
- Authors: Deividas Eringis, John Leth, Zheng-Hua Tan, Rafael Wisniewski, Mihaly
Petreczky
- Abstract要約: 入力を持つ線形時間不変(LTI)力学系に対して、確率的に近似的正則(PAC)-ベイジアン誤差を導出する。
このような境界は機械学習に広く浸透しており、有限個のデータポイントから学習したモデルの予測力を特徴づけるのに有用である。
- 参考スコア(独自算出の注目度): 13.251009291060992
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper we derive a Probably Approxilmately Correct(PAC)-Bayesian error
bound for linear time-invariant (LTI) stochastic dynamical systems with inputs.
Such bounds are widespread in machine learning, and they are useful for
characterizing the predictive power of models learned from finitely many data
points. In particular, with the bound derived in this paper relates future
average prediction errors with the prediction error generated by the model on
the data used for learning. In turn, this allows us to provide finite-sample
error bounds for a wide class of learning/system identification algorithms.
Furthermore, as LTI systems are a sub-class of recurrent neural networks
(RNNs), these error bounds could be a first step towards PAC-Bayesian bounds
for RNNs.
- Abstract(参考訳): 本稿では,線形時間不変量(LTI)確率力学系に対して入力を持つ確率近似的誤差を導出する。
このような境界は機械学習に広く浸透しており、有限個のデータポイントから学習したモデルの予測力を特徴づけるのに有用である。
特に,本論文の導出した境界は,学習に使用するデータ上でモデルが生成した予測誤差と将来の平均予測誤差を関連付ける。
これにより、幅広い学習・システム識別アルゴリズムに対して有限サンプル誤差境界を提供することができる。
さらに、LTIシステムはリカレントニューラルネットワーク(RNN)のサブクラスであるため、これらのエラー境界は、RNNのPAC-ベイジアン境界への第一歩となる可能性がある。
関連論文リスト
- Correlation-aware Spatial-Temporal Graph Learning for Multivariate
Time-series Anomaly Detection [67.60791405198063]
時系列異常検出のための相関対応時空間グラフ学習(CST-GL)を提案する。
CST-GLは、多変量時系列相関学習モジュールを介してペアの相関を明示的にキャプチャする。
新規な異常スコアリング成分をCST-GLにさらに統合し、純粋に教師なしの方法で異常の度合いを推定する。
論文 参考訳(メタデータ) (2023-07-17T11:04:27Z) - PAC-Bayesian-Like Error Bound for a Class of Linear Time-Invariant
Stochastic State-Space Models [13.251009291060992]
入力を持つ力学系のクラスに対して、PAC-Bayesian-likeエラーバウンドを導出する。
この誤差の様々な結果について議論する。
論文 参考訳(メタデータ) (2022-12-30T17:37:33Z) - Efficient learning of nonlinear prediction models with time-series
privileged information [11.679648862014655]
線形ガウス力学系において、中間時系列データにアクセス可能なLuPI学習者は、偏りのない古典的学習者よりも決して悪くはないことを示す。
このマップが未知の場合のランダムな特徴と表現学習に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-15T05:56:36Z) - Certified machine learning: A posteriori error estimation for
physics-informed neural networks [0.0]
PINNは、より小さなトレーニングセットに対して堅牢であることが知られ、より優れた一般化問題を導出し、より高速にトレーニングすることができる。
純粋にデータ駆動型ニューラルネットワークと比較してPINNを使うことは、トレーニング性能に好都合であるだけでなく、近似されたソリューションの品質に関する重要な情報を抽出できることを示す。
論文 参考訳(メタデータ) (2022-03-31T14:23:04Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - PAC-Bayesian theory for stochastic LTI systems [15.01136076871549]
自律 LTI 状態空間モデルに対する PAC-Bayesian 誤差を導出する。
このようなエラー境界を導出する動機は、より一般的な動的システムに対して同様のエラー境界を導出できるようにすることである。
論文 参考訳(メタデータ) (2021-03-23T21:59:21Z) - Learning Reasoning Strategies in End-to-End Differentiable Proving [50.9791149533921]
条件付き定理プローバーは勾配に基づく最適化により最適規則選択戦略を学習する。
条件付き定理プローサは拡張性があり、CLUTRRデータセット上で最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-13T16:22:14Z) - High-level Modeling of Manufacturing Faults in Deep Neural Network
Accelerators [2.6258269516366557]
Googleのユニットプロセッシング(TPU)は、ニューラルネットワークアクセラレータで、ニューラルネットワークのクラック内での計算にsystolic配列ベースの行列乗算ハードウェアを使用する。
行列乗算ユニットの任意の状態要素における欠陥は、これらの推論ネットワークにおいて予期せぬ誤りを引き起こす可能性がある。
離散時間マルコフ連鎖(DTMC)形式を用いたTPUにおける永久断層の定式化とその伝播モデルを提案する。
論文 参考訳(メタデータ) (2020-06-05T18:11:14Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。