論文の概要: Semi-Supervised Learning using Siamese Networks
- arxiv url: http://arxiv.org/abs/2109.00794v1
- Date: Thu, 2 Sep 2021 09:06:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 22:51:44.250648
- Title: Semi-Supervised Learning using Siamese Networks
- Title(参考訳): シームズネットワークを用いた半教師付き学習
- Authors: Attaullah Sahito, Eibe Frank, and Bernhard Pfahringer
- Abstract要約: 本研究は,シームズネットワークを用いた類似度関数学習に基づく,半教師付き学習の新しい学習方法を提案する。
ラベルのないインスタンスの信頼性予測は、シームズネットワークを再トレーニングするための真のラベルとして使用される。
ラベルのない予測を改善するため,グローバルな一貫性を備えた局所学習も評価した。
- 参考スコア(独自算出の注目度): 3.492636597449942
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have been successfully used as classification models yielding
state-of-the-art results when trained on a large number of labeled samples.
These models, however, are more difficult to train successfully for
semi-supervised problems where small amounts of labeled instances are available
along with a large number of unlabeled instances. This work explores a new
training method for semi-supervised learning that is based on similarity
function learning using a Siamese network to obtain a suitable embedding. The
learned representations are discriminative in Euclidean space, and hence can be
used for labeling unlabeled instances using a nearest-neighbor classifier.
Confident predictions of unlabeled instances are used as true labels for
retraining the Siamese network on the expanded training set. This process is
applied iteratively. We perform an empirical study of this iterative
self-training algorithm. For improving unlabeled predictions, local learning
with global consistency [22] is also evaluated.
- Abstract(参考訳): ニューラルネットワークは、多数のラベル付きサンプルをトレーニングする際に、最先端の結果をもたらす分類モデルとしてうまく使われている。
しかし、ラベル付きインスタンスが少量であり、ラベル付けされていないインスタンスが多数存在する半教師付き問題に対して、これらのモデルは、うまくトレーニングすることがより困難である。
本研究は,シームズネットワークを用いた類似度関数学習に基づく半教師付き学習の新しい学習手法を探索し,適切な埋め込みを得る。
学習された表現はユークリッド空間において判別可能であり、従ってラベルなしのインスタンスを最も近いneighbor分類器を使ってラベル付けするのに使うことができる。
拡張トレーニングセット上で,Siameseネットワークを再トレーニングするための真のラベルとして,ラベル付きインスタンスの信頼性予測が使用される。
このプロセスは反復的に適用される。
この反復的自己学習アルゴリズムの実証的研究を行う。
ラベルなし予測を改善するために,グローバル一貫性を用いた局所学習 [22] も評価した。
関連論文リスト
- Regularizing Neural Network Training via Identity-wise Discriminative
Feature Suppression [20.89979858757123]
トレーニングサンプルの数が少ない場合、あるいはクラスラベルがうるさい場合、ネットワークはトレーニングエラーを最小限に抑えるために個々のインスタンス固有のパターンを記憶する傾向がある。
本稿では、経験的エラー最小化のために、インスタンス固有のパターンに依存するネットワークの傾向を抑えることで、改善策を検討する。
論文 参考訳(メタデータ) (2022-09-29T05:14:56Z) - Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - Self-Training: A Survey [5.772546394254112]
半教師付きアルゴリズムは、ラベル付き観測の小さなセットとラベルなし観測の大きなセットから予測関数を学習することを目的としている。
近年,自己学習手法が注目されていることは確かである。
本稿では,バイナリクラスとマルチクラス分類のための自己学習手法と,その変種と関連する2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-24T11:40:44Z) - GuidedMix-Net: Semi-supervised Semantic Segmentation by Using Labeled
Images as Reference [90.5402652758316]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
ラベル付き情報を使用して、ラベルなしのインスタンスの学習をガイドする。
競合セグメンテーションの精度を達成し、mIoUを以前のアプローチに比べて+7$%大きく改善する。
論文 参考訳(メタデータ) (2021-12-28T06:48:03Z) - Transfer of Pretrained Model Weights Substantially Improves
Semi-Supervised Image Classification [3.492636597449942]
ディープニューラルネットワークは、多数のラベル付きサンプルでトレーニングされた場合、最先端の結果を生成する。
ディープニューラルネットワークは、少数のラベル付きサンプルがトレーニングに使用される場合、過度に適合する傾向がある。
ラベル付きサンプルがほとんどない場合、転送学習がモデルの精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-09-02T08:58:34Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z) - Semi-supervised dictionary learning with graph regularization and active
points [0.19947949439280027]
2つの柱に基づく辞書学習手法を提案する。
一方、元のデータから局所線形埋め込みを用いたスパース符号空間に多様体構造保存を強制する。
一方、スパース符号空間における半教師付き分類器を訓練する。
論文 参考訳(メタデータ) (2020-09-13T09:24:51Z) - Text Classification with Few Examples using Controlled Generalization [58.971750512415134]
現在の実践は、トレーニング中に見えない単語を、類似した単語とマッピングするために、事前訓練された単語埋め込みに依存している。
私たちの代替案は、未ラベルのパースコーパスから派生したスパース事前訓練された表現から始まります。
これらのベクトル上のフィードフォワードネットワークは、特に低データシナリオにおいて有効であることを示す。
論文 参考訳(メタデータ) (2020-05-18T06:04:58Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。