論文の概要: Streaming Self-Training via Domain-Agnostic Unlabeled Images
- arxiv url: http://arxiv.org/abs/2104.03309v1
- Date: Wed, 7 Apr 2021 17:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 14:05:45.184166
- Title: Streaming Self-Training via Domain-Agnostic Unlabeled Images
- Title(参考訳): ドメインに依存しないラベルなし画像によるストリーミング自己学習
- Authors: Zhiqiu Lin and Deva Ramanan and Aayush Bansal
- Abstract要約: 視覚認識モデル学習の過程を民主化することを目的としたストリーミング自己学習(SST)を提案する。
SSTの鍵となるのは、(1)ドメインに依存しない未ラベル画像により、追加の知識や監督なしにいくつかのラベル付き例でより良いモデルを学ぶことができ、(2)学習は継続的なプロセスであり、学習更新のスケジュールを構築することで行うことができる。
- 参考スコア(独自算出の注目度): 62.57647373581592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present streaming self-training (SST) that aims to democratize the process
of learning visual recognition models such that a non-expert user can define a
new task depending on their needs via a few labeled examples and minimal domain
knowledge. Key to SST are two crucial observations: (1) domain-agnostic
unlabeled images enable us to learn better models with a few labeled examples
without any additional knowledge or supervision; and (2) learning is a
continuous process and can be done by constructing a schedule of learning
updates that iterates between pre-training on novel segments of the streams of
unlabeled data, and fine-tuning on the small and fixed labeled dataset. This
allows SST to overcome the need for a large number of domain-specific labeled
and unlabeled examples, exorbitant computational resources, and
domain/task-specific knowledge. In this setting, classical semi-supervised
approaches require a large amount of domain-specific labeled and unlabeled
examples, immense resources to process data, and expert knowledge of a
particular task. Due to these reasons, semi-supervised learning has been
restricted to a few places that can house required computational and human
resources. In this work, we overcome these challenges and demonstrate our
findings for a wide range of visual recognition tasks including fine-grained
image classification, surface normal estimation, and semantic segmentation. We
also demonstrate our findings for diverse domains including medical, satellite,
and agricultural imagery, where there does not exist a large amount of labeled
or unlabeled data.
- Abstract(参考訳): 本稿では,非熟練ユーザがラベル付き例と最小限のドメイン知識を通じて,ニーズに応じて新たなタスクを定義できるように,視覚認識モデルの学習プロセスを民主化することを目的としたストリーミング自己学習(sst)を提案する。
SSTの鍵となるのは、(1)ドメインに依存しない未ラベル画像により、追加の知識や監督なしにいくつかのラベル付き例でより良いモデルを学ぶことができ、(2)学習は連続的なプロセスであり、未ラベルデータストリームの新規セグメントで事前学習する学習更新のスケジュールを構築し、小さなラベル付きデータセットで微調整を行うことで実現できる。
これにより、sstは多数のドメイン固有のラベル付きおよびラベルなしの例、エクササイズな計算リソース、ドメイン/タスク固有の知識の必要性を克服できる。
この設定では、古典的な半教師付きアプローチは、大量のドメイン固有のラベル付きおよびラベルなしの例、データを処理するための膨大なリソース、特定のタスクの専門知識を必要とする。
これらの理由から、半教師付き学習は必要な計算資源と人的資源を収容できるいくつかの場所に限定されている。
本研究では,これらの課題を克服し,細粒度画像分類,表面正規推定,セマンティックセグメンテーションなど,幅広い視覚認識タスクの成果を実証する。
また, 医療, 衛星, 農業画像など多種多様な領域に対して, ラベル付きデータやラベルなしデータの存在を実証した。
関連論文リスト
- A Review of Pseudo-Labeling for Computer Vision [2.79239659248295]
ディープニューラルネットワークは、しばしば効果的に一般化するためにラベル付きサンプルの大きなデータセットを必要とする。
活発な研究の重要な領域は半教師あり学習であり、代わりに大量の(容易に取得された)未ラベルのサンプルを使おうとする。
本研究では,自己監督手法と教師なし手法の両方において,擬似ラベルのより広範な解釈について検討する。
論文 参考訳(メタデータ) (2024-08-13T22:17:48Z) - Transfer learning with generative models for object detection on limited datasets [1.4999444543328293]
海洋生物学などいくつかの分野では、各物体の周囲に有界箱を正しくラベル付けする必要がある。
本稿では,一般的なシナリオに有効な伝達学習フレームワークを提案する。
我々の研究結果は、さまざまな分野における機械学習アプリケーションのための、新しい生成AIベースのプロトコルの道を開くものである。
論文 参考訳(メタデータ) (2024-02-09T21:17:31Z) - Open Set Domain Recognition via Attention-Based GCN and Semantic
Matching Optimization [8.831857715361624]
本研究では,注意に基づくGCNとセマンティックマッチング最適化に基づくエンドツーエンドモデルを提案する。
実験結果から,提案モデルが未知のクラスの画像認識に優れるだけでなく,対象領域の様々な開放性にも適応できることが確認された。
論文 参考訳(メタデータ) (2021-05-11T12:05:36Z) - Adaptive Self-training for Few-shot Neural Sequence Labeling [55.43109437200101]
ニューラルシークエンスラベリングモデルにおけるラベル不足問題に対処する手法を開発した。
自己学習は、大量のラベルのないデータから学ぶための効果的なメカニズムとして機能する。
メタラーニングは、適応的なサンプル再重み付けにおいて、ノイズのある擬似ラベルからのエラー伝播を軽減するのに役立つ。
論文 参考訳(メタデータ) (2020-10-07T22:29:05Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Adversarial Knowledge Transfer from Unlabeled Data [62.97253639100014]
本稿では,インターネット規模の未ラベルデータから知識を伝達し,分類器の性能を向上させるための新しいAdversarial Knowledge Transferフレームワークを提案する。
我々の手法の重要な新しい側面は、ラベル付けされていないソースデータは、ラベル付けされたターゲットデータと異なるクラスであることができ、個別のプリテキストタスクを定義する必要がないことである。
論文 参考訳(メタデータ) (2020-08-13T08:04:27Z) - Unsupervised Transfer Learning with Self-Supervised Remedy [60.315835711438936]
手動ラベルのない新しいドメインにディープネットワークを一般化することは、ディープラーニングにとって難しい。
事前学習された知識は、学習されたドメインや新しいドメインについて強い仮定をしなければ、うまく伝達しない。
本研究は,ラベル付き関連ドメインからの知識伝達により,新規ドメインにおける未ラベル対象データの識別潜在空間を学習することを目的とする。
論文 参考訳(メタデータ) (2020-06-08T16:42:17Z) - Learning Cross-domain Generalizable Features by Representation
Disentanglement [11.74643883335152]
ディープラーニングモデルは、異なるドメイン間で限定的な一般化性を示す。
本稿では,MIDNet(Multual-Information-based Disentangled Neural Networks)を提案する。
本手法は手書き桁データセットと胎児超音波データセットを用いて画像分類を行う。
論文 参考訳(メタデータ) (2020-02-29T17:53:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。