論文の概要: Semi-supervised Deep Learning for Image Classification with Distribution
Mismatch: A Survey
- arxiv url: http://arxiv.org/abs/2203.00190v1
- Date: Tue, 1 Mar 2022 02:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 22:58:07.360482
- Title: Semi-supervised Deep Learning for Image Classification with Distribution
Mismatch: A Survey
- Title(参考訳): 分布ミスマッチを用いた半教師付きディープラーニングによる画像分類
- Authors: Saul Calderon-Ramirez, Shengxiang Yang, David Elizondo
- Abstract要約: ディープラーニングモデルは、予測モデルをトレーニングするためにラベル付き観測の豊富な部分に依存します。
ラベル付きデータ観測を収集することは高価であり、ディープラーニングモデルの使用は理想的ではない。
多くの状況では、異なる非競合データソースが利用可能である。
これにより、ラベル付きデータセットと非ラベル付きデータセットの間にかなりの分散ミスマッチが発生するリスクが生じる。
- 参考スコア(独自算出の注目度): 1.5469452301122175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methodologies have been employed in several different fields,
with an outstanding success in image recognition applications, such as material
quality control, medical imaging, autonomous driving, etc. Deep learning models
rely on the abundance of labelled observations to train a prospective model.
These models are composed of millions of parameters to estimate, increasing the
need of more training observations. Frequently it is expensive to gather
labelled observations of data, making the usage of deep learning models not
ideal, as the model might over-fit data. In a semi-supervised setting,
unlabelled data is used to improve the levels of accuracy and generalization of
a model with small labelled datasets. Nevertheless, in many situations
different unlabelled data sources might be available. This raises the risk of a
significant distribution mismatch between the labelled and unlabelled datasets.
Such phenomena can cause a considerable performance hit to typical
semi-supervised deep learning frameworks, which often assume that both labelled
and unlabelled datasets are drawn from similar distributions. Therefore, in
this paper we study the latest approaches for semi-supervised deep learning for
image recognition. Emphasis is made in semi-supervised deep learning models
designed to deal with a distribution mismatch between the labelled and
unlabelled datasets. We address open challenges with the aim to encourage the
community to tackle them, and overcome the high data demand of traditional deep
learning pipelines under real-world usage settings.
- Abstract(参考訳): 深層学習の手法はいくつかの分野で採用されており、材料品質制御、医用画像、自動運転など、画像認識の応用において顕著な成功を収めている。
ディープラーニングモデルは、予測モデルをトレーニングするためにラベル付き観測が豊富に依存する。
これらのモデルは推定する数百万のパラメータで構成されており、より多くのトレーニング観察の必要性が増している。
ラベル付きデータ観測を収集することはしばしばコストがかかるため、モデルが過度に適合する可能性があるため、ディープラーニングモデルの使用は理想的ではない。
半教師付き設定では、ラベルのないデータは、小さなラベル付きデータセットを持つモデルの精度と一般化のレベルを改善するために使用される。
それにもかかわらず、多くの状況において、異なる非競合データソースが利用可能である。
これにより、ラベル付きデータセットとラベルなしデータセットの間の大きな分散ミスマッチのリスクが高まる。
このような現象は、ラベル付きデータセットと非ラベル付きデータセットの両方が同様の分布から引き出されると仮定される、一般的な半教師付きディープラーニングフレームワークにかなりのパフォーマンスを損なう可能性がある。
そこで本稿では,画像認識のための半教師付き深層学習の最新のアプローチについて検討する。
強調されるのは、ラベル付きデータセットと非ラベル付きデータセットの間の分散ミスマッチを扱うように設計された半教師付きディープラーニングモデルである。
私たちはオープンな課題に対処し、コミュニティがそれに取り組むことを奨励し、現実世界の使用環境下での従来のディープラーニングパイプラインの高データ要求を克服することを目的としています。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - PixelDINO: Semi-Supervised Semantic Segmentation for Detecting
Permafrost Disturbances [15.78884578132055]
融解によって引き起こされる地すべりに匹敵する永久凍土障害であるRTS(regressive thaw slumps)の遠隔検出に焦点を当てた。
本稿では,RTS検出のためのセマンティックセグメンテーションモデルを訓練するための半教師付き学習手法を提案する。
当社のフレームワークであるPixelDINOは,ラベル付きデータと非ラベル付きデータとを並行してトレーニングしています。
論文 参考訳(メタデータ) (2024-01-17T15:20:10Z) - Semi-Supervised Learning for hyperspectral images by non parametrically
predicting view assignment [25.198550162904713]
ハイパースペクトル画像(HSI)分類は、画像中のスペクトル情報が高いため、現在、多くの勢いを増している。
近年,ラベル付きサンプルを最小限に抑えたディープラーニングモデルを効果的に訓練するために,ラベル付きサンプルも自己教師付きおよび半教師付き設定で活用されている。
本研究では,半教師付き学習の概念を利用して,モデルの識別的自己教師型事前学習を支援する。
論文 参考訳(メタデータ) (2023-06-19T14:13:56Z) - Self Training with Ensemble of Teacher Models [8.257085583227695]
堅牢なディープラーニングモデルのトレーニングには,大量のラベル付きデータが必要である。
このようなラベル付きデータの大規模なリポジトリがなければ、ラベルなしのデータも同様に利用することができる。
準スーパービジョン学習は、そのようなラベルのないデータを分類モデルの訓練に活用することを目的としている。
論文 参考訳(メタデータ) (2021-07-17T09:44:09Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。