論文の概要: Marginal and Joint Cross-Entropies & Predictives for Online Bayesian
Inference, Active Learning, and Active Sampling
- arxiv url: http://arxiv.org/abs/2205.08766v1
- Date: Wed, 18 May 2022 07:24:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 12:11:45.306333
- Title: Marginal and Joint Cross-Entropies & Predictives for Online Bayesian
Inference, Active Learning, and Active Sampling
- Title(参考訳): オンラインベイズ推論, アクティブラーニング, アクティブサンプリングのためのMarginal and Joint Cross-Entropies & Predictives
- Authors: Andreas Kirsch, Jannik Kossen, Yarin Gal
- Abstract要約: 最近の研究は、理論的・合成的な観点からの逐次的意思決定における共同予測の重要性を強調している。
オンラインベイズ推論について論じるが、これは再トレーニングせずに追加データを考慮しながら予測を行うことができる。
これらの設定は、限界予測と共同予測、それぞれのクロスエントロピー、およびオフラインおよびオンライン学習におけるそれらの場所の検証によって動機付けられている。
- 参考スコア(独自算出の注目度): 37.97228752843909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Principled Bayesian deep learning (BDL) does not live up to its potential
when we only focus on marginal predictive distributions (marginal predictives).
Recent works have highlighted the importance of joint predictives for
(Bayesian) sequential decision making from a theoretical and synthetic
perspective. We provide additional practical arguments grounded in real-world
applications for focusing on joint predictives: we discuss online Bayesian
inference, which would allow us to make predictions while taking into account
additional data without retraining, and we propose new challenging evaluation
settings using active learning and active sampling. These settings are
motivated by an examination of marginal and joint predictives, their respective
cross-entropies, and their place in offline and online learning. They are more
realistic than previously suggested ones, building on work by Wen et al. (2021)
and Osband et al. (2022), and focus on evaluating the performance of
approximate BNNs in an online supervised setting. Initial experiments, however,
raise questions on the feasibility of these ideas in high-dimensional parameter
spaces with current BDL inference techniques, and we suggest experiments that
might help shed further light on the practicality of current research for these
problems. Importantly, our work highlights previously unidentified gaps in
current research and the need for better approximate joint predictives.
- Abstract(参考訳): 原理ベイズ深層学習 (BDL) は、限界予測分布 (marginal predictives) にのみ焦点をあてる場合、その潜在能力に及ばない。
近年の研究では、理論的・合成的な視点から(ベイジアン)逐次決定のための共同予測の重要性を強調している。
オンラインベイズ推論について論じるが、これは再トレーニングをせずに追加データを考慮しながら予測を行うことが可能であり、アクティブラーニングとアクティブサンプリングを用いた新しい挑戦的評価設定を提案する。
これらの設定は、限界予測と共同予測、それぞれのクロスエントロピー、およびオフラインおよびオンライン学習におけるそれらの場所の検証によって動機付けられている。
Wen et al. (2021) と Osband et al. (2022) の作業に基づいて構築され、オンラインの教師付き環境で近似BNNの性能を評価することに重点を置いている。
しかし,初期の実験は,現在のBDL推論技術を用いた高次元パラメータ空間におけるこれらのアイデアの実現可能性に関する疑問を提起し,これらの問題に対する現在の研究の実用性をさらに深めるための実験を提案する。
重要なのは、これまでの研究における未確認のギャップと、より良い共同予測の必要性を強調することです。
関連論文リスト
- A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.83473301188138]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。
まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。
さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (2024-09-07T05:55:06Z) - Understanding the Learning Dynamics of Alignment with Human Feedback [17.420727709895736]
本稿では,人間の嗜好アライメントの学習力学を理論的に解析する試みについて述べる。
選好データセットの分布がモデル更新率にどのように影響するかを示し、トレーニング精度に厳密な保証を与える。
論文 参考訳(メタデータ) (2024-03-27T16:39:28Z) - Pessimistic Causal Reinforcement Learning with Mediators for Confounded Offline Data [17.991833729722288]
我々は新しいポリシー学習アルゴリズム PESsimistic CAusal Learning (PESCAL) を提案する。
我々のキーとなる観察は、システム力学における作用の効果を媒介する補助変数を組み込むことで、Q-関数の代わりに媒介物分布関数の下位境界を学習することは十分であるということである。
提案するアルゴリズムの理論的保証とシミュレーションによる有効性の実証、および主要な配車プラットフォームからのオフラインデータセットを利用した実世界の実験を提供する。
論文 参考訳(メタデータ) (2024-03-18T14:51:19Z) - Improved prediction of future user activity in online A/B testing [9.824661943331119]
オンラインランダム化実験やA/Bテストでは、参加者参加率の正確な予測が最も重要である。
我々は、個人が介入に晒される率を予測するために、新しく、単純でスケーラブルなベイズ非パラメトリックアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-05T17:44:21Z) - Towards a General Framework for Continual Learning with Pre-training [55.88910947643436]
本稿では,事前学習を用いた逐次到着タスクの連続学習のための一般的な枠組みを提案する。
我々はその目的を,タスク内予測,タスク同一性推論,タスク適応予測という3つの階層的構成要素に分解する。
本稿では,パラメータ効率細調整(PEFT)技術と表現統計量を用いて,これらのコンポーネントを明示的に最適化する革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-10-21T02:03:38Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training [72.8087629914444]
教師付き事前学習データセットのクラス内多様性(クラス毎のサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討した。
トレーニング前のデータセットのサイズが固定された場合、最高のダウンストリームのパフォーマンスは、クラス内/クラス間の多様性のバランスがとれる。
論文 参考訳(メタデータ) (2023-05-20T16:23:50Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Evaluating Predictive Distributions: Does Bayesian Deep Learning Work? [45.290773422944866]
後続の予測分布は、点推定によって無視される不確実性を定量化する。
本稿では,このような予測を生成するエージェントの系統的評価を行うためのツールである,The Neural Testbedを紹介する。
論文 参考訳(メタデータ) (2021-10-09T18:54:02Z) - Fair Representation Learning using Interpolation Enabled Disentanglement [9.043741281011304]
a) 下流タスクに対する学習された表現の有用性を確保しつつ、公平な不整合表現を同時に学べるか、(b) 提案手法が公正かつ正確であるかどうかに関する理論的知見を提供する。
前者に対応するために,補間可能外乱を用いた公正表現学習法FRIEDを提案する。
論文 参考訳(メタデータ) (2021-07-31T17:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。