論文の概要: Moderately Supervised Learning: Definition, Framework and Generality
- arxiv url: http://arxiv.org/abs/2008.11945v3
- Date: Wed, 18 May 2022 06:53:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 07:35:18.541322
- Title: Moderately Supervised Learning: Definition, Framework and Generality
- Title(参考訳): 適度に監督された学習:定義、枠組み、一般性
- Authors: Yongquan Yang
- Abstract要約: 本稿では、教師付き学習(SL)の分類を拡張し、SLの中心的な役割を担うサブタイプについて検討する。
我々は,与えられたラベルが理想である状況に配慮した,中等教育的学習(MSL)サブタイプに注目した。
定義, フレームワーク, 一般性の観点から, MSL を包括的に説明し, SL の定義の抽象性によってどのような詳細が隠されているかを明らかにする。
- 参考スコア(独自算出の注目度): 2.487445341407889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning with supervision has achieved remarkable success in numerous
artificial intelligence (AI) applications. In the current literature, by
referring to the properties of the labels prepared for the training data set,
learning with supervision is categorized as supervised learning (SL) and weakly
supervised learning (WSL). SL concerns the situation where the training data
set is assigned with ideal labels, while WSL concerns the situation where the
training data set is assigned with non-ideal labels. However, without
considering the properties of the transformation from the given labels to
learnable targets, the definition of SL is relatively abstract, which conceals
some details that can be critical to building the appropriate solutions for
specific SL tasks. Thus, it is desirable to reveal these details more
concretely. This article attempts to achieve this goal by expanding the
categorization of SL and investigating the sub-type that plays the central role
in SL. More specifically, taking into consideration the properties of the
transformation from the given labels to learnable targets, we firstly
categorize SL into three narrower sub-types. Then we focus on the moderately
supervised learning (MSL) sub-type that concerns the situation where the given
labels are ideal, but due to the simplicity in annotation, careful designs are
required to transform the given labels into learnable targets. From the
perspectives of the definition, framework and generality, we comprehensively
illustrate MSL and reveal what details are concealed by the abstractness of the
definition of SL. At the meantime, the whole presentation of this paper as well
establishes a tutorial for AI application engineers to refer to viewing a
problem to be solved from the mathematicians' vision.
- Abstract(参考訳): 教師付き学習は多くの人工知能(AI)アプリケーションで顕著な成功を収めた。
現在の文献では、トレーニングデータセットに用意されたラベルの特性を参照することにより、教師あり学習(SL)と弱教師あり学習(WSL)に分類される。
SLはトレーニングデータセットが理想的なラベルで割り当てられている状況、WSLはトレーニングデータセットが非理想的なラベルで割り当てられている状況に関する。
しかしながら、与えられたラベルから学習可能なターゲットへの変換の性質を考慮せずに、SLの定義は比較的抽象的であり、特定のSLタスクに対して適切なソリューションを構築する上で重要ないくつかの詳細を隠蔽する。
したがって、これらの詳細をより具体的に明らかにすることが望ましい。
本稿では、SLの分類を拡大し、SLの中心的な役割を担うサブタイプを調べることで、この目標を達成することを試みる。
具体的には、与えられたラベルから学習可能なターゲットへの変換の性質を考慮して、SLを3つのより狭いサブタイプに分類する。
得られたラベルが理想的な状況に配慮した中等教育学習(MSL)サブタイプに注目するが、アノテーションの単純さのため、与えられたラベルを学習可能なターゲットに変換するには注意深い設計が必要である。
定義, フレームワーク, 一般性の観点から, MSL を包括的に説明し, SL の定義の抽象性によってどのような詳細が隠されているかを明らかにする。
一方,本論文のプレゼンテーション全体は,AIアプリケーションエンジニアが数学者のビジョンから解決すべき問題を見るためのチュートリアルも確立している。
関連論文リスト
- A Survey of the Self Supervised Learning Mechanisms for Vision Transformers [5.152455218955949]
視覚タスクにおける自己教師あり学習(SSL)の適用は注目されている。
SSL手法を体系的に分類する包括的分類法を開発した。
SSLの背後にあるモチベーションについて議論し、人気のある事前トレーニングタスクをレビューし、この分野の課題と進歩を強調します。
論文 参考訳(メタデータ) (2024-08-30T07:38:28Z) - Memorization in Self-Supervised Learning Improves Downstream Generalization [49.42010047574022]
自己教師付き学習(SSL)は、ラベルのないデータで純粋に高性能エンコーダを訓練する能力により、最近大きな注目を集めている。
SSL内での暗記を定義するためのフレームワークであるSSLMemを提案する。
論文 参考訳(メタデータ) (2024-01-19T11:32:47Z) - FlexSSL : A Generic and Efficient Framework for Semi-Supervised Learning [19.774959310191623]
我々はFlexSSLと呼ばれる汎用的で効率的な学習フレームワークを開発した。
我々はFlexSSLが半教師付き学習アルゴリズムの性能を継続的に向上できることを示す。
論文 参考訳(メタデータ) (2023-12-28T08:31:56Z) - Slot Induction via Pre-trained Language Model Probing and Multi-level
Contrastive Learning [62.839109775887025]
トークンレベルのスロットアノテーションの明示的な知識なしでスロット境界を誘導することを目的としたスロットインジェクション(SI)タスク。
PLMから抽出した教師なし意味知識を活用するために、教師なし事前学習言語モデル(PLM)探索とコントラスト学習機構を活用することを提案する。
提案手法は,2つのNLUベンチマークデータセット上でトークンレベルの教師付きモデルとのギャップを埋めることができ,SIタスクに有効であることが示されている。
論文 参考訳(メタデータ) (2023-08-09T05:08:57Z) - Reverse Engineering Self-Supervised Learning [17.720366509919167]
自己教師型学習(SSL)は機械学習の強力なツールである。
本稿ではSSL学習表現の詳細な実験的検討を行う。
論文 参考訳(メタデータ) (2023-05-24T23:15:28Z) - Robust Meta-Representation Learning via Global Label Inference and
Classification [42.81340522184904]
メタラベル学習(Meta Label Learning, MeLa)は,タスク間でグローバルラベルを推論することでタスク関係を学習するメタラーニングアルゴリズムである。
MeLaは、既存のメソッドをさまざまなベンチマークで上回り、特に、トレーニングタスクの数が制限され、ラベルがタスク固有であるような、より困難な設定でパフォーマンスします。
論文 参考訳(メタデータ) (2022-12-22T13:46:47Z) - Improving Self-Supervised Learning by Characterizing Idealized
Representations [155.1457170539049]
与えられたデータ拡張に不変なタスクに対して必要かつ十分な条件を証明します。
対照的に、我々のフレームワークは、従来の手法に対して単純だが重要な改善を規定している。
非コントラスト学習では、私たちのフレームワークを使って、シンプルで斬新な目的を導き出します。
論文 参考訳(メタデータ) (2022-09-13T18:01:03Z) - Robust Deep Semi-Supervised Learning: A Brief Introduction [63.09703308309176]
半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することにより、学習性能を向上させることを目的としている。
ディープモデルによるSSLは、標準ベンチマークタスクで成功したことが証明されている。
しかし、それらは現実世界のアプリケーションにおける様々な堅牢性に対する脅威に対して依然として脆弱である。
論文 参考訳(メタデータ) (2022-02-12T04:16:41Z) - The Role of Global Labels in Few-Shot Classification and How to Infer
Them [55.64429518100676]
メタ学習では、ほとんどショット学習が中心的な問題であり、学習者は新しいタスクに迅速に適応しなければならない。
本稿では,メタラベル学習(MeLa)を提案する。メタラベル学習(MeLa)は,グローバルラベルを推論し,標準分類によるロバストな少数ショットモデルを得る新しいアルゴリズムである。
論文 参考訳(メタデータ) (2021-08-09T14:07:46Z) - Graph-based Semi-supervised Learning: A Comprehensive Review [51.26862262550445]
半教師付き学習(ssl)はラベル付きデータとラベルなしデータの両方を利用する能力があるため、実際非常に価値があります。
重要なSSLメソッドのクラスは、グラフベースの半教師付き学習(GSSL)メソッドに対応するグラフとしてデータを自然に表現することです。
GSSLメソッドは、構造のユニークさ、アプリケーションの普遍性、大規模データへのスケーラビリティのために、さまざまなドメインでその利点を実証しています。
論文 参考訳(メタデータ) (2021-02-26T05:11:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。