論文の概要: S2C2 - An orthogonal method for Semi-Supervised Learning on fuzzy labels
- arxiv url: http://arxiv.org/abs/2106.16209v1
- Date: Wed, 30 Jun 2021 17:00:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 15:28:15.459490
- Title: S2C2 - An orthogonal method for Semi-Supervised Learning on fuzzy labels
- Title(参考訳): S2C2 - ファジィラベルを用いた半教師付き学習の直交法
- Authors: Lars Schmarje and Monty Santarossa and Simon-Martin Schr\"oder and
Claudius Zelenka and Rainer Kiko and Jenny Stracke and Nina Volkmann and
Reinhard Koch
- Abstract要約: Semi-Supervised Learning (SSL)は、必要なラベル付き画像データの量を削減できる。
ほとんどのSSLメソッドは、クラス間の明確な区別しか考慮していないが、多くの実世界のデータセットでは、この明確な区別は与えられていない。
本稿では,多くの深いSSLアルゴリズムを拡張可能なセミスーパービジョン分類・クラスタリング(S2C2)を提案する。
- 参考スコア(独自算出の注目度): 1.4731692975991328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-Supervised Learning (SSL) can decrease the amount of required labeled
image data and thus the cost for deep learning. Most SSL methods only consider
a clear distinction between classes but in many real-world datasets, this clear
distinction is not given due to intra- or interobserver variability. This
variability can lead to different annotations per image. Thus many images have
ambiguous annotations and their label needs to be considered "fuzzy". This
fuzziness of labels must be addressed as it will limit the performance of
Semi-Supervised Learning (SSL) and deep learning in general. We propose
Semi-Supervised Classification & Clustering (S2C2) which can extend many deep
SSL algorithms. S2C2 can estimate the fuzziness of a label and applies SSL as a
classification to certainly labeled data while creating distinct clusters for
images with similar but fuzzy labels. We show that S2C2 results in median 7.4%
better F1-score for classifications and 5.4% lower inner distance of clusters
across multiple SSL algorithms and datasets while being more interpretable due
to the fuzziness estimation of our method. Overall, a combination of
Semi-Supervised Learning with our method S2C2 leads to better handling of the
fuzziness of labels and thus real-world datasets.
- Abstract(参考訳): SSL(Semi-Supervised Learning)は、必要なラベル付き画像データの量を削減し、ディープラーニングのコストを削減できる。
ほとんどのSSLメソッドは、クラス間の明確な区別しか考慮していないが、多くの実世界のデータセットでは、この明確な区別は、内部変数またはオブザーバ変数のために与えられない。
この可変性は、画像ごとに異なるアノテーションをもたらす可能性がある。
したがって、多くの画像には曖昧な注釈があり、そのラベルは「曖昧」と見なされる必要がある。
ラベルのこの曖昧さは、セミスーパーバイズドラーニング(SSL)とディープラーニング全般のパフォーマンスを制限しているため対処する必要がある。
本稿では,多くの深いSSLアルゴリズムを拡張可能なセミスーパービジョン分類・クラスタリング(S2C2)を提案する。
S2C2はラベルの曖昧さを推定し、SSLを確実にラベル付けされたデータに分類し、類似しているがファジィなラベルを持つ画像に対して異なるクラスタを作成する。
その結果、S2C2は、分類におけるF1スコアの中央値が7.4%向上し、複数のSSLアルゴリズムやデータセットにまたがるクラスタ内距離が5.4%低かった。
全体として、半教師付き学習とs2c2法の組み合わせは、ラベルと実際のデータセットの融合性をより良く処理する。
関連論文リスト
- Semi-Supervised Sparse Gaussian Classification: Provable Benefits of Unlabeled Data [6.812609988733991]
高次元ガウス分類のためのSSLについて検討する。
正確な特徴選択のための情報理論の下限を解析する。
理論的解析を補完するシミュレーションを提案する。
論文 参考訳(メタデータ) (2024-09-05T08:21:05Z) - Robust Semi-Supervised Learning for Self-learning Open-World Classes [5.714673612282175]
実世界のアプリケーションでは、ラベル付きデータは常にラベル付き集合に存在しないクラスを含んでいる。
本稿では,自己学習型オープンワールドクラス(SSOC)のためのオープンワールドSSL手法を提案する。
SSOCは、複数の人気のある分類ベンチマークで最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-01-15T09:27:46Z) - Can semi-supervised learning use all the data effectively? A lower bound
perspective [58.71657561857055]
半教師付き学習アルゴリズムはラベル付きデータを利用して教師付き学習アルゴリズムのラベル付きサンプル複雑性を改善することができることを示す。
我々の研究は、SSLアルゴリズムのパフォーマンス向上を証明することは可能だが、定数の注意深く追跡する必要があることを示唆している。
論文 参考訳(メタデータ) (2023-11-30T13:48:50Z) - Semi-Supervised Learning in the Few-Shot Zero-Shot Scenario [14.916971861796384]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータの両方を利用して、モデルのパフォーマンスを向上させるフレームワークである。
既存のSSLメソッドを拡張し、特定のクラスが欠落している状況に対処するための一般的なアプローチを提案する。
実験の結果,最先端のSSL,オープンセットのSSL,オープンワールドのSSLメソッドと比較して,精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-08-27T14:25:07Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - Self Supervised Learning for Few Shot Hyperspectral Image Classification [57.2348804884321]
HSI分類に自己監督学習(SSL)を活用することを提案する。
最先端のSSLアルゴリズムであるBarlow-Twinsを用いて,ラベルのない画素にエンコーダを事前学習することにより,少数のラベルを持つ正確なモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-06-24T07:21:53Z) - Learning Self-Supervised Low-Rank Network for Single-Stage Weakly and
Semi-Supervised Semantic Segmentation [119.009033745244]
本稿では,単一段階弱教師付きセマンティックセマンティックセマンティックセマンティクス(WSSS)と半教師付きセマンティクスセマンティクスセマンティクス(SSSS)のための自己教師付き低ランクネットワーク(SLRNet)を提案する。
SLRNetは、画像の異なるビューから複数の注意深いLR表現を同時に予測し、正確な擬似ラベルを学習する。
Pascal VOC 2012、COCO、L2IDデータセットの実験では、SLRNetは最先端のWSSSメソッドとSSSSメソッドの両方で、さまざまな設定で優れています。
論文 参考訳(メタデータ) (2022-03-19T09:19:55Z) - ACPL: Anti-curriculum Pseudo-labelling forSemi-supervised Medical Image
Classification [22.5935068122522]
我々は、反キュリキュラム擬似ラベリング(ACPL)と呼ばれる新しいSSLアルゴリズムを提案する。
ACPLは、情報のないサンプルを選択するための新しいテクニックを導入し、トレーニングバランスを改善し、マルチラベルとマルチクラスの両方でモデルが動作できるようにする。
本手法は, 従来のSOTA SSL方式よりも優れていた。
論文 参考訳(メタデータ) (2021-11-25T05:31:52Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。