論文の概要: Bayesian Learning for Dynamic Inference
- arxiv url: http://arxiv.org/abs/2301.00032v1
- Date: Fri, 30 Dec 2022 19:16:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:44:56.525872
- Title: Bayesian Learning for Dynamic Inference
- Title(参考訳): 動的推論のためのベイズ学習
- Authors: Aolin Xu, Peng Guan
- Abstract要約: いくつかの逐次推定問題では、推定される量の将来値は、その現在の値の推定に依存する。
本研究では,未知量生成モデルがランダムに描画されることを前提として,動的推論のためのベイズ学習問題を定式化する。
我々は、推論損失を最小限に抑えるために、オフラインとオンラインの両方で最適なベイズ学習ルールを導出する。
- 参考スコア(独自算出の注目度): 2.2843885788439793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The traditional statistical inference is static, in the sense that the
estimate of the quantity of interest does not affect the future evolution of
the quantity. In some sequential estimation problems however, the future values
of the quantity to be estimated depend on the estimate of its current value.
This type of estimation problems has been formulated as the dynamic inference
problem. In this work, we formulate the Bayesian learning problem for dynamic
inference, where the unknown quantity-generation model is assumed to be
randomly drawn according to a random model parameter. We derive the optimal
Bayesian learning rules, both offline and online, to minimize the inference
loss. Moreover, learning for dynamic inference can serve as a meta problem,
such that all familiar machine learning problems, including supervised
learning, imitation learning and reinforcement learning, can be cast as its
special cases or variants. Gaining a good understanding of this unifying meta
problem thus sheds light on a broad spectrum of machine learning problems as
well.
- Abstract(参考訳): 伝統的な統計学的推論は、興味の量の推定は、その量の将来の進化に影響を与えないという意味で静的である。
しかし、いくつかの逐次推定問題では、推定すべき量の将来値は現在の値の推定に依存する。
この種の推定問題は動的推論問題として定式化されている。
本研究では、未知量生成モデルがランダムモデルパラメータに従ってランダムに描画されると仮定された動的推論のためのベイズ学習問題を定式化する。
推論損失を最小限に抑えるために、オフラインとオンラインの両方で最適なベイズ学習ルールを導出する。
さらに、動的推論の学習はメタ問題として機能し、教師付き学習、模倣学習、強化学習を含む一般的な機械学習問題を、その特別なケースや変種としてキャストすることができる。
この統一されたメタ問題を十分に理解することで、幅広い機械学習問題にも光を当てることになる。
関連論文リスト
- A Multi-step Loss Function for Robust Learning of the Dynamics in
Model-based Reinforcement Learning [10.940666275830052]
モデルに基づく強化学習では、ほとんどのアルゴリズムはデータに基づいて学習したダイナミクスの一段階モデルからの軌道のシミュレーションに依存している。
我々は、多段階の目標を用いてワンステップモデルを訓練することでこの問題に対処する。
この新たな損失は、データが騒々しいときに特に有効であることが分かっています。
論文 参考訳(メタデータ) (2024-02-05T16:13:00Z) - Loss Dynamics of Temporal Difference Reinforcement Learning [36.772501199987076]
線形関数近似器を用いた値関数の時間差学習のためのケースラーニング曲線について検討した。
本研究では,学習力学と台地が特徴構造,学習率,割引係数,報酬関数にどのように依存するかを検討する。
論文 参考訳(メタデータ) (2023-07-10T18:17:50Z) - Smoothed Online Learning for Prediction in Piecewise Affine Systems [54.98643421343919]
本稿では,最近開発されたスムーズなオンライン学習フレームワークに基づく。
これは、断片的なアフィン系における予測とシミュレーションのための最初のアルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-01-26T15:54:14Z) - Reinforcement Learning in System Identification [0.0]
システム識別は、学習前方モデル、伝達関数、システムダイナミクスなどとも呼ばれるが、科学と工学の両方において長い伝統がある。
ここでは、この問題における強化学習の利用について考察する。
本稿では,この問題が強化学習問題として自然と音にどのように適合するかを詳述し,RLがこのような問題を解決する上で有望な手法であることを実証する実験結果を示す。
論文 参考訳(メタデータ) (2022-12-14T09:20:42Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - Dynamic Inference [4.568777157687959]
いくつかの逐次推定問題では、推定される量の将来値は、その現在の値の推定に依存する。
例えば、大手投資家による株価予測、インタラクティブな製品レコメンデーション、マルチエージェントシステムにおける行動予測などがある。
本研究では,ベイズ確率的枠組みの下でこの問題の定式化を行い,全体の推測損失を最小化するための最適推定戦略を導出する。
論文 参考訳(メタデータ) (2021-11-29T17:50:22Z) - Stateful Offline Contextual Policy Evaluation and Learning [88.9134799076718]
我々は、シーケンシャルデータから、政治以外の評価と学習について研究する。
動的パーソナライズされた価格設定などの問題の因果構造を形式化する。
本報告では,本クラスにおけるアウト・オブ・サンプル・ポリシーの性能改善について述べる。
論文 参考訳(メタデータ) (2021-10-19T16:15:56Z) - BayesIMP: Uncertainty Quantification for Causal Data Fusion [52.184885680729224]
本研究では,複数の因果グラフに関連するデータセットを組み合わせ,対象変数の平均処理効果を推定する因果データ融合問題について検討する。
本稿では、確率積分とカーネル平均埋め込みのアイデアを組み合わせて、再生されたカーネルヒルベルト空間における干渉分布を表現するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T10:14:18Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。