論文の概要: Gone Fishing: Neural Active Learning with Fisher Embeddings
- arxiv url: http://arxiv.org/abs/2106.09675v1
- Date: Thu, 17 Jun 2021 17:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:44:21.645749
- Title: Gone Fishing: Neural Active Learning with Fisher Embeddings
- Title(参考訳): Gone Fishing: 魚の埋め込みによるニューラルアクティブラーニング
- Authors: Jordan T. Ash, Surbhi Goel, Akshay Krishnamurthy, Sham Kakade
- Abstract要約: ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
- 参考スコア(独自算出の注目度): 55.08537975896764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an increasing need for effective active learning algorithms that are
compatible with deep neural networks. While there are many classic,
well-studied sample selection methods, the non-convexity and varying internal
representation of neural models make it unclear how to extend these approaches.
This article introduces BAIT, a practical, tractable, and high-performing
active learning algorithm for neural networks that addresses these concerns.
BAIT draws inspiration from the theoretical analysis of maximum likelihood
estimators (MLE) for parametric models. It selects batches of samples by
optimizing a bound on the MLE error in terms of the Fisher information, which
we show can be implemented efficiently at scale by exploiting linear-algebraic
structure especially amenable to execution on modern hardware. Our experiments
show that BAIT outperforms the previous state of the art on both classification
and regression problems, and is flexible enough to be used with a variety of
model architectures.
- Abstract(参考訳): ディープニューラルネットワークと互換性のある効果的なアクティブな学習アルゴリズムの必要性が高まっている。
古典的な、よく研究されたサンプル選択方法が数多く存在するが、神経モデルの非凸性と内部表現はこれらのアプローチを拡張する方法が不明である。
本稿では、ニューラルネットワークのための実用的で扱いやすい、高性能なアクティブラーニングアルゴリズムであるbaitについて紹介する。
BAITはパラメトリックモデルに対する最大極大推定器(MLE)の理論解析から着想を得ている。
本稿では,MLEの誤差をFisher情報の観点から最適化し,特に最新のハードウェア上での動作に適する線形代数構造を利用して,大規模に効率的に実装できることを示し,サンプルのバッチを選択する。
実験の結果,BAITは分類問題と回帰問題の両方において従来の技術よりも優れており,様々なモデルアーキテクチャで使用可能な柔軟性があることがわかった。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Neural Routing in Meta Learning [9.070747377130472]
入力タスクに条件付けされたモデルの部分のみを選択的に使用することにより,現在のメタ学習アルゴリズムのモデル性能を向上させることを目指している。
本稿では、バッチ正規化層におけるスケーリング係数を活用することにより、深層畳み込みニューラルネットワーク(CNN)におけるタスク依存の動的ニューロン選択を研究するアプローチについて述べる。
提案手法であるニューラルルーティング・イン・メタラーニング(NRML)は,数ショットの分類タスクにおいて,既知のメタラーニングベースラインの1つである。
論文 参考訳(メタデータ) (2022-10-14T16:31:24Z) - Can we learn gradients by Hamiltonian Neural Networks? [68.8204255655161]
本稿では,勾配を学習するODEニューラルネットワークに基づくメタラーナを提案する。
提案手法は,LLUアクティベーションを最適化したMLMとMNISTデータセットにおいて,LSTMに基づくメタラーナーよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-31T18:35:10Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Efficacy of Bayesian Neural Networks in Active Learning [11.609770399591516]
ベイズニューラルネットワークは、アンサンブルに基づく不確実性を捕捉する技術よりも効率的であることを示す。
また,近年,モンテカルロのドロップアウトよりも効果的であることが判明したアンサンブル技法の重要な欠点も明らかにした。
論文 参考訳(メタデータ) (2021-04-02T06:02:11Z) - Active Learning in CNNs via Expected Improvement Maximization [2.0305676256390934]
また,Dropout-based IMprOvementS (DEIMOS) は,能動的学習に対する柔軟で計算効率のよいアプローチである。
以上の結果から,DIMOSは複数の回帰・分類タスクにおいて,既存のベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-11-27T22:06:52Z) - Causality-aware counterfactual confounding adjustment for feature
representations learned by deep models [14.554818659491644]
因果モデリングは機械学習(ML)における多くの課題に対する潜在的な解決策として認識されている。
深層ニューラルネットワーク(DNN)モデルによって学習された特徴表現を分解するために、最近提案された対実的アプローチが依然として使われている方法について説明する。
論文 参考訳(メタデータ) (2020-04-20T17:37:36Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。