論文の概要: Adversarial Knowledge Transfer from Unlabeled Data
- arxiv url: http://arxiv.org/abs/2008.05746v1
- Date: Thu, 13 Aug 2020 08:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 23:21:19.030786
- Title: Adversarial Knowledge Transfer from Unlabeled Data
- Title(参考訳): ラベルなしデータからの敵対的知識伝達
- Authors: Akash Gupta, Rameswar Panda, Sujoy Paul, Jianming Zhang, Amit K.
Roy-Chowdhury
- Abstract要約: 本稿では,インターネット規模の未ラベルデータから知識を伝達し,分類器の性能を向上させるための新しいAdversarial Knowledge Transferフレームワークを提案する。
我々の手法の重要な新しい側面は、ラベル付けされていないソースデータは、ラベル付けされたターゲットデータと異なるクラスであることができ、個別のプリテキストタスクを定義する必要がないことである。
- 参考スコア(独自算出の注目度): 62.97253639100014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While machine learning approaches to visual recognition offer great promise,
most of the existing methods rely heavily on the availability of large
quantities of labeled training data. However, in the vast majority of
real-world settings, manually collecting such large labeled datasets is
infeasible due to the cost of labeling data or the paucity of data in a given
domain. In this paper, we present a novel Adversarial Knowledge Transfer (AKT)
framework for transferring knowledge from internet-scale unlabeled data to
improve the performance of a classifier on a given visual recognition task. The
proposed adversarial learning framework aligns the feature space of the
unlabeled source data with the labeled target data such that the target
classifier can be used to predict pseudo labels on the source data. An
important novel aspect of our method is that the unlabeled source data can be
of different classes from those of the labeled target data, and there is no
need to define a separate pretext task, unlike some existing approaches.
Extensive experiments well demonstrate that models learned using our approach
hold a lot of promise across a variety of visual recognition tasks on multiple
standard datasets.
- Abstract(参考訳): 機械学習による視覚認識のアプローチは非常に有望であるが、既存の手法のほとんどは、大量のラベル付きトレーニングデータの可用性に大きく依存している。
しかし、現実世界のほとんどの設定において、そのような大きなラベル付きデータセットを手動で収集することは、データのラベル付けコストや特定のドメイン内のデータのあいまいさのために不可能である。
本稿では,インターネット規模非ラベルデータから知識を転送し,所定の視覚認識タスクにおける分類器の性能を向上させるための新しいadversarial knowledge transfer(akt)フレームワークを提案する。
提案するadversarial learningフレームワークは、ラベル付きソースデータの特徴空間とラベル付きターゲットデータとを整合させ、対象の分類器を用いてソースデータ上の擬似ラベルを予測する。
提案手法の重要な新しい側面は,ラベル付けされていないソースデータはラベル付けされたターゲットデータと異なるクラスであり,既存のアプローチとは異なり,個別のプリテキストタスクを定義する必要はない点である。
広範な実験により、このアプローチで学習したモデルは、複数の標準データセット上で様々な視覚認識タスクにまたがって多くの可能性を秘めていることをよく示しています。
関連論文リスト
- Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - Semi-Supervised Variational Adversarial Active Learning via Learning to Rank and Agreement-Based Pseudo Labeling [6.771578432805963]
アクティブラーニングは、ラベルなしサンプルの選択を自動化することで、データラベリングに関わる労力を軽減することを目的としている。
トレーニング中に大量のラベルのないデータの使用を大幅に改善する新しい手法を導入する。
様々な画像分類およびセグメンテーションベンチマークデータセットにおける技術状況に対するアプローチの優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-23T00:35:07Z) - Maximizing Data Efficiency for Cross-Lingual TTS Adaptation by
Self-Supervised Representation Mixing and Embedding Initialization [57.38123229553157]
本稿では,テキスト音声合成システムにおける言語適応のための効果的な伝達学習フレームワークを提案する。
ラベル付きおよびラベルなしの最小データを用いて言語適応を実現することに注力する。
実験結果から,本フレームワークは,ラベル付きデータの4つの発声とラベル付きデータの15分で,未知の言語で理解不能な音声を合成できることが示唆された。
論文 参考訳(メタデータ) (2024-01-23T21:55:34Z) - infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - Label Name is Mantra: Unifying Point Cloud Segmentation across
Heterogeneous Datasets [17.503843467554592]
本稿では,異なるラベル集合を持つ異種データセットからの学習を支援する原理的アプローチを提案する。
我々の考えは、学習済みの言語モデルを用いて、ラベル名を用いて離散ラベルを連続的な潜在空間に埋め込むことである。
私たちのモデルは最先端の技術を大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-03-19T06:14:22Z) - GuidedMix-Net: Learning to Improve Pseudo Masks Using Labeled Images as
Reference [153.354332374204]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
まず、ラベル付きデータとラベルなしデータの間に特徴アライメントの目的を導入し、類似した画像対をキャプチャする。
MITransは、ラベルなしデータのさらなるプログレッシブな精細化のための強力な知識モジュールであることが示されている。
ラベル付きデータに対する教師付き学習とともに、ラベル付きデータの予測が生成した擬似マスクとともに学習される。
論文 参考訳(メタデータ) (2021-06-29T02:48:45Z) - Streaming Self-Training via Domain-Agnostic Unlabeled Images [62.57647373581592]
視覚認識モデル学習の過程を民主化することを目的としたストリーミング自己学習(SST)を提案する。
SSTの鍵となるのは、(1)ドメインに依存しない未ラベル画像により、追加の知識や監督なしにいくつかのラベル付き例でより良いモデルを学ぶことができ、(2)学習は継続的なプロセスであり、学習更新のスケジュールを構築することで行うことができる。
論文 参考訳(メタデータ) (2021-04-07T17:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。