論文の概要: Deep Active Learning in Remote Sensing for data efficient Change
Detection
- arxiv url: http://arxiv.org/abs/2008.11201v1
- Date: Tue, 25 Aug 2020 17:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 04:10:27.542312
- Title: Deep Active Learning in Remote Sensing for data efficient Change
Detection
- Title(参考訳): データ効率な変化検出のためのリモートセンシングにおける深層能動学習
- Authors: V\'it R\r{u}\v{z}i\v{c}ka, Stefano D'Aronco, Jan Dirk Wegner, Konrad
Schindler
- Abstract要約: 本研究では、変化検出とマップ更新のための深層ニューラルネットワークモデルの文脈におけるアクティブラーニングについて検討する。
アクティブな学習では、最小限のトレーニング例から始まり、ユーザによって注釈付けされた情報的サンプルを徐々に選択する。
能動学習は,高い情報的サンプルの発見に成功し,自動的にトレーニング分布のバランスをとることを示す。
- 参考スコア(独自算出の注目度): 26.136331738529243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate active learning in the context of deep neural network models
for change detection and map updating. Active learning is a natural choice for
a number of remote sensing tasks, including the detection of local surface
changes: changes are on the one hand rare and on the other hand their
appearance is varied and diffuse, making it hard to collect a representative
training set in advance. In the active learning setting, one starts from a
minimal set of training examples and progressively chooses informative samples
that are annotated by a user and added to the training set. Hence, a core
component of an active learning system is a mechanism to estimate model
uncertainty, which is then used to pick uncertain, informative samples. We
study different mechanisms to capture and quantify this uncertainty when
working with deep networks, based on the variance or entropy across explicit or
implicit model ensembles. We show that active learning successfully finds
highly informative samples and automatically balances the training
distribution, and reaches the same performance as a model supervised with a
large, pre-annotated training set, with $\approx$99% fewer annotated samples.
- Abstract(参考訳): 変化検出とマップ更新のための深層ニューラルネットワークモデルの文脈におけるアクティブラーニングについて検討する。
アクティブな学習は、局所的な表面の変化を検出することを含む、多くのリモートセンシングタスクにとって自然な選択である。
アクティブな学習環境では、最小限のトレーニング例から始まり、ユーザによって注釈付けされトレーニングセットに追加される情報的サンプルを段階的に選択する。
したがって、アクティブラーニングシステムのコアコンポーネントは、モデル不確実性を推定し、不確実で情報的なサンプルを選択するメカニズムである。
本研究では,明示的あるいは暗黙的なモデルアンサンブル間の分散やエントロピーに基づいて,深層ネットワークを扱う際の不確かさを捉え,定量化するための異なるメカニズムについて検討する。
アクティブ・ラーニングは、高い情報的サンプルを見つけ、自動的にトレーニング分布のバランスを保ち、大規模な事前アノテーション付きトレーニングセットで教師されるモデルと同じ性能に到達し、$\approx$99%のアノテートサンプルを減らした。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Gaussian Switch Sampling: A Second Order Approach to Active Learning [11.775252660867285]
能動的学習において、取得関数は、モデル多様体内の表現位置に直接情報性を定義する。
本稿では,アクティブラーニングの文脈における情報内容とサンプルの重要性の2次定義を提案する。
我々は,モデル表現が訓練データの欠如によって制約されている場合でも,その定義が極めて正確な重要度スコアを生成することを示す。
論文 参考訳(メタデータ) (2023-02-16T15:24:56Z) - Frugal Reinforcement-based Active Learning [12.18340575383456]
本稿では,ラベル効率向上のための新しい能動的学習手法を提案する。
提案手法は反復的であり,多様性,表現性,不確実性の基準を混合した制約対象関数の最小化を目的としている。
また、強化学習に基づく新たな重み付け機構を導入し、各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
論文 参考訳(メタデータ) (2022-12-09T14:17:45Z) - Automatic Change-Point Detection in Time Series via Deep Learning [8.43086628139493]
ニューラルネットワークのトレーニングに基づいて,新しいオフライン検出手法を自動生成する方法を示す。
本稿では,そのような手法の誤差率を定量化する理論について述べる。
また,加速度計データに基づく活動変化の検出と位置推定にも強い効果が得られた。
論文 参考訳(メタデータ) (2022-11-07T20:59:14Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - When Deep Learners Change Their Mind: Learning Dynamics for Active
Learning [32.792098711779424]
本稿では,情報量に基づく能動的学習手法を提案する。
我々の測度はニューラルネットワークの学習力学から導かれる。
ラベル分散はネットワークの不確実性の予測因子として有望であることを示す。
論文 参考訳(メタデータ) (2021-07-30T15:30:17Z) - Active Learning for Sequence Tagging with Deep Pre-trained Models and
Bayesian Uncertainty Estimates [52.164757178369804]
自然言語処理のためのトランスファーラーニングとアクティブラーニングの最近の進歩は、必要なアノテーション予算を大幅に削減する可能性を開く。
我々は,様々なベイズ不確実性推定手法とモンテカルロドロップアウトオプションの実験的研究を,アクティブ学習フレームワークで実施する。
また, 能動学習中にインスタンスを取得するためには, 完全サイズのトランスフォーマーを蒸留版に置き換えることにより, 計算性能が向上することを示した。
論文 参考訳(メタデータ) (2021-01-20T13:59:25Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Efficient Learning of Model Weights via Changing Features During
Training [0.0]
学習中の特徴を動的に変化させる機械学習モデルを提案する。
私たちの主な動機は、トレーニングプロセス中に小さなコンテンツでモデルを更新し、より説明力の少ない機能を大きなプールから新しいものに置き換えることです。
論文 参考訳(メタデータ) (2020-02-21T12:38:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。