論文の概要: Streaming Active Learning with Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2303.02535v1
- Date: Sun, 5 Mar 2023 00:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 19:11:21.834108
- Title: Streaming Active Learning with Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークによるストリーミングアクティブラーニング
- Authors: Akanksha Saran, Safoora Yousefi, Akshay Krishnamurthy, John Langford,
Jordan T. Ash
- Abstract要約: ストリーミング設定において,ディープニューラルネットワークを用いたバッチアクティブ学習のための新しいアルゴリズムであるVeSSALを提案する。
VeSSALは、ラベルに遭遇した時点でクエリするポイントのグループをサンプリングする。
我々は、ディープニューラルネットワークの適用性を、現実的なアクティブな学習シナリオに拡張する。
- 参考スコア(独自算出の注目度): 44.50018541065145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning is perhaps most naturally posed as an online learning
problem. However, prior active learning approaches with deep neural networks
assume offline access to the entire dataset ahead of time. This paper proposes
VeSSAL, a new algorithm for batch active learning with deep neural networks in
streaming settings, which samples groups of points to query for labels at the
moment they are encountered. Our approach trades off between uncertainty and
diversity of queried samples to match a desired query rate without requiring
any hand-tuned hyperparameters. Altogether, we expand the applicability of deep
neural networks to realistic active learning scenarios, such as applications
relevant to HCI and large, fractured datasets.
- Abstract(参考訳): アクティブラーニングは、おそらくオンラインラーニング問題として最も自然に提起されている。
しかし、ディープニューラルネットワークによる事前アクティブな学習アプローチでは、事前にデータセット全体へのオフラインアクセスを前提としている。
本稿では、ストリーミング設定におけるディープニューラルネットワークを用いたバッチアクティブ学習のための新しいアルゴリズムであるVeSSALを提案する。
提案手法は,ハンドチューニングハイパーパラメータを必要とせず,所望のクエリレートに適合するために,クエリしたサンプルの不確実性と多様性をトレードオフする。
全体として、深層ニューラルネットワークの適用範囲を、hciや大規模な破壊的データセットに関連するアプリケーションなど、現実的なアクティブラーニングシナリオにまで拡大します。
関連論文リスト
- Peer-to-Peer Learning Dynamics of Wide Neural Networks [10.179711440042123]
我々は,一般的なDGDアルゴリズムを用いて学習した広範ニューラルネットワークの学習力学を,明示的で非漸近的に特徴づける。
我々は,誤りや誤りを正確に予測し,分析結果を検証した。
論文 参考訳(メタデータ) (2024-09-23T17:57:58Z) - Deep Active Learning with Structured Neural Depth Search [18.180995603975422]
Active-iNASは、複数のモデルを訓練し、各アクティブラーニングサイクルの後に、その後のサンプルをクエリする最適な一般化性能でモデルを選択する。
本稿では,SVI(Structured Variational Inference)あるいはSNDS(Structured Neural Deep Search)と呼ばれる手法を用いた新しいアクティブ戦略を提案する。
同時に、理論上は、平均場推定に基づく現在のVIベースの手法が性能を低下させる可能性があることを実証している。
論文 参考訳(メタデータ) (2023-06-05T12:00:12Z) - Active Learning with Neural Networks: Insights from Nonparametric
Statistics [12.315392649501101]
本論文は, 深層学習において, 準最適ラベルの複雑性が保証される最初の方法である。
標準的な低騒音条件下では,ニューラルネットワークを用いた能動学習がミニマックスラベルの複雑さを確実に達成できることを示す。
また,低雑音の仮定を伴わずに,$mathsfpolylog(frac1epsilon)$ラベル複雑性を実現する,効率的な深層能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-15T19:57:09Z) - Sparse Interaction Additive Networks via Feature Interaction Detection
and Sparse Selection [10.191597755296163]
我々は,必要な特徴の組み合わせを効率的に識別する,抽出可能な選択アルゴリズムを開発した。
提案するスパース・インタラクション・アダプティブ・ネットワーク(SIAN)は,単純かつ解釈可能なモデルから完全に接続されたニューラルネットワークへのブリッジを構築する。
論文 参考訳(メタデータ) (2022-09-19T19:57:17Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Gradient-only line searches to automatically determine learning rates
for a variety of stochastic training algorithms [0.0]
Inexact (GOLS-I) である Gradient-Only Line Search を用いて、ニューラルネットワークトレーニングアルゴリズムの選択のための学習率スケジュールを決定する。
GOLS-Iの学習率スケジュールは、手動で調整された学習率、最適化アルゴリズム7以上、ニューラルネットワークアーキテクチャ3タイプ、データセット23、損失関数2つと競合する。
論文 参考訳(メタデータ) (2020-06-29T08:59:31Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。