論文の概要: Bayesian Active Learning for Censored Regression
- arxiv url: http://arxiv.org/abs/2402.11973v1
- Date: Mon, 19 Feb 2024 09:19:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 17:29:19.483493
- Title: Bayesian Active Learning for Censored Regression
- Title(参考訳): 知覚回帰のためのベイジアンアクティブラーニング
- Authors: Frederik Boe H\"uttel, Christoffer Riis, Filipe Rodrigues, Francisco
C\^amara Pereira
- Abstract要約: 新たなデータポイントが検閲の対象になった場合,BALDを推定することは困難である,と我々は主張する。
我々は,検閲された分布に対するエントロピーと相互情報の導出と,検閲された回帰における活発な学習のためのBALD目標の導出を行う。
我々は、$mathcalC$-BALDが、検閲された回帰において他のベイズ的な学習方法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 4.048661940511017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian active learning is based on information theoretical approaches that
focus on maximising the information that new observations provide to the model
parameters. This is commonly done by maximising the Bayesian Active Learning by
Disagreement (BALD) acquisitions function. However, we highlight that it is
challenging to estimate BALD when the new data points are subject to
censorship, where only clipped values of the targets are observed. To address
this, we derive the entropy and the mutual information for censored
distributions and derive the BALD objective for active learning in censored
regression ($\mathcal{C}$-BALD). We propose a novel modelling approach to
estimate the $\mathcal{C}$-BALD objective and use it for active learning in the
censored setting. Across a wide range of datasets and models, we demonstrate
that $\mathcal{C}$-BALD outperforms other Bayesian active learning methods in
censored regression.
- Abstract(参考訳): ベイズアクティブラーニングは、新しい観察がモデルパラメータに与える情報を最大化することに焦点を当てた情報理論的アプローチに基づいている。
これは一般的に、Bayesian Active Learning by Disagreement (BALD) 取得関数の最大化によって行われる。
しかし,新たなデータポイントが検閲の対象となり,ターゲットのクリップ値のみが観察される場合,BALDを推定することは困難である。
これを解決するために、検閲された配信のエントロピーと相互情報を導出し、検閲されたレグレッション(\mathcal{C}$-BALD)におけるアクティブな学習のためのBALD目標を導出する。
本稿では,$\mathcal{C}$-BALD目標を推定する新しいモデリング手法を提案する。
幅広いデータセットやモデルを用いて、$\mathcal{C}$-BALDが、検閲された回帰において他のベイズ的アクティブな学習方法よりも優れていることを示す。
関連論文リスト
- Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Making Better Use of Unlabelled Data in Bayesian Active Learning [19.050266270699368]
半教師付きベイズ能動学習のための枠組みを提案する。
従来のベイズ的アクティブラーニングやランダムに取得したデータを用いた半教師付きラーニングよりも優れた性能モデルが得られた。
論文 参考訳(メタデータ) (2024-04-26T08:41:55Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Unifying Approaches in Data Subset Selection via Fisher Information and
Information-Theoretic Quantities [38.59619544501593]
我々はフィッシャー情報を再検討し、それを用いて、他のいくつかの異なる方法が情報理論量の近似としてどのように接続されているかを示す。
データサブセットの選択、すなわち、アクティブラーニングとアクティブサンプリングでは、いくつかの最近の研究はフィッシャー情報、ヘッセン、勾配に基づく類似度行列、あるいは単に勾配長を用いてサンプル選択を導いた取得スコアを計算する。
論文 参考訳(メタデータ) (2022-08-01T00:36:57Z) - Active Surrogate Estimators: An Active Learning Approach to
Label-Efficient Model Evaluation [59.7305309038676]
モデル評価のためのアクティブサロゲート推定器(ASE)を提案する。
ASEは現在の最先端技術よりもラベル効率が高いことが分かりました。
論文 参考訳(メタデータ) (2022-02-14T17:15:18Z) - Optimizing Active Learning for Low Annotation Budgets [6.753808772846254]
ディープラーニングでは、アクティブな学習は通常、微調整によって連続した深層モデルを更新する反復的なプロセスとして実装される。
移行学習にインスパイアされたアプローチを用いてこの問題に対処する。
本稿では,ALプロセスの反復性を利用してより堅牢なサンプルを抽出する新しい取得関数を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:53:10Z) - RewardsOfSum: Exploring Reinforcement Learning Rewards for Summarisation [7.0471949371778795]
本稿では,抽象的な要約作業に対する2つの報酬関数を提案する。
最初の関数はRwB-Hingeと呼ばれ、勾配更新のサンプルを動的に選択する。
第2の機能はRISKと呼ばれ、強力な候補者の小さなプールを利用して報酬を知らせる。
論文 参考訳(メタデータ) (2021-06-08T03:30:50Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Covariate Distribution Aware Meta-learning [3.494950334697974]
本稿では,有意義な緩和を導入することで,計算可能なメタ学習アルゴリズムを提案する。
一般的な分類ベンチマークに基づいて,ブートストラップによるメタラーニングベースラインに対するアルゴリズムの優位性を実証する。
論文 参考訳(メタデータ) (2020-07-06T05:00:13Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。