論文の概要: Efficient Graph-Based Active Learning with Probit Likelihood via
Gaussian Approximations
- arxiv url: http://arxiv.org/abs/2007.11126v1
- Date: Tue, 21 Jul 2020 23:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:22:34.669657
- Title: Efficient Graph-Based Active Learning with Probit Likelihood via
Gaussian Approximations
- Title(参考訳): ガウス近似による確率的確率を用いた効率的なグラフベースアクティブラーニング
- Authors: Kevin Miller, Hao Li, and Andrea L. Bertozzi
- Abstract要約: 我々は、非ガウスベイズモデルの下で、グラフに基づく半教師付き学習(SSL)にアクティブラーニングを適用する。
我々は,「ルックアヘッド」に基づく手法とモデル再訓練を併用する効率的なランクワン更新法を開発した。
- 参考スコア(独自算出の注目度): 10.470277924687991
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel adaptation of active learning to graph-based
semi-supervised learning (SSL) under non-Gaussian Bayesian models. We present
an approximation of non-Gaussian distributions to adapt previously
Gaussian-based acquisition functions to these more general cases. We develop an
efficient rank-one update for applying "look-ahead" based methods as well as
model retraining. We also introduce a novel "model change" acquisition function
based on these approximations that further expands the available collection of
active learning acquisition functions for such methods.
- Abstract(参考訳): 非ガウスベイズモデルに基づくグラフベース半教師付き学習(SSL)へのアクティブラーニングの新たな適応を提案する。
我々は、ガウス分布を近似して、より一般的なケースに先立つガウス的獲得関数を適用する。
我々は,「ルックアヘッド」に基づく手法とモデル再訓練を併用する効率的なランクワン更新法を開発した。
また,これらの近似に基づく新しい「モデル変更」獲得関数を導入し,そのような手法で利用可能なアクティブラーニング獲得関数のコレクションをさらに拡大する。
関連論文リスト
- Scalable Bayesian Learning with posteriors [0.856335408411906]
ベイズ学習の汎用実装をホストするPyTorchライブラリであるPostorsを導入する。
実験によりベイズ近似の有効性を実証・比較し,寒冷後部効果と大規模言語モデルを用いた応用について検討した。
論文 参考訳(メタデータ) (2024-05-31T18:00:12Z) - Making Look-Ahead Active Learning Strategies Feasible with Neural
Tangent Kernels [6.372625755672473]
本稿では,仮説的ラベル付き候補データを用いた再学習に基づく,能動的学習獲得戦略の近似手法を提案する。
通常、これはディープ・ネットワークでは実現できないが、我々はニューラル・タンジェント・カーネルを用いて再トレーニングの結果を近似する。
論文 参考訳(メタデータ) (2022-06-25T06:13:27Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Merging Models with Fisher-Weighted Averaging [24.698591753644077]
我々は、複数のモデルを1つに“マージ”するモデル間で知識を伝達する、根本的に異なる方法を紹介します。
提案手法は,モデルのパラメータの重み付け平均を効果的に計算する。
マージ手順により、これまで探索されていなかった方法でモデルを組み合わせることが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-18T17:59:35Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Active and sparse methods in smoothed model checking [2.28438857884398]
スパース変分法とアクティブラーニングに基づくモデルチェックの平滑化の拡張について検討する。
スパース変分ガウス過程推論アルゴリズムのオンライン拡張は、スムーズなモデル検査のための能動的学習手法を実装するためのスケーラブルな方法を提供する。
論文 参考訳(メタデータ) (2021-04-20T13:03:25Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Model-Augmented Actor-Critic: Backpropagating through Paths [81.86992776864729]
現在のモデルに基づく強化学習アプローチでは、単に学習されたブラックボックスシミュレータとしてモデルを使用する。
その微分可能性を利用してモデルをより効果的に活用する方法を示す。
論文 参考訳(メタデータ) (2020-05-16T19:18:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。