論文の概要: The Value of Nullspace Tuning Using Partial Label Information
- arxiv url: http://arxiv.org/abs/2003.07921v1
- Date: Tue, 17 Mar 2020 20:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 20:46:48.179633
- Title: The Value of Nullspace Tuning Using Partial Label Information
- Title(参考訳): 部分ラベル情報を用いたNullspace Tuningの価値
- Authors: Colin B. Hansen, Vishwesh Nath, Diego A. Mesa, Yuankai Huo, Bennett A.
Landman, Thomas A. Lasko
- Abstract要約: 半教師付き学習では、他のラベルのない例から部分ラベル情報を推測することができる。
最新かつ最先端のMixMatchメソッドに対するNullspace Tuningは,テストエラーを最大1.8倍まで削減することを示す。
- 参考スコア(独自算出の注目度): 7.593158957902436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In semi-supervised learning, information from unlabeled examples is used to
improve the model learned from labeled examples. But in some learning problems,
partial label information can be inferred from otherwise unlabeled examples and
used to further improve the model. In particular, partial label information
exists when subsets of training examples are known to have the same label, even
though the label itself is missing. By encouraging a model to give the same
label to all such examples, we can potentially improve its performance. We call
this encouragement \emph{Nullspace Tuning} because the difference vector
between any pair of examples with the same label should lie in the nullspace of
a linear model. In this paper, we investigate the benefit of using partial
label information using a careful comparison framework over well-characterized
public datasets. We show that the additional information provided by partial
labels reduces test error over good semi-supervised methods usually by a factor
of 2, up to a factor of 5.5 in the best case. We also show that adding
Nullspace Tuning to the newer and state-of-the-art MixMatch method decreases
its test error by up to a factor of 1.8.
- Abstract(参考訳): 半教師付き学習では、ラベルなし例からの情報はラベル付き例から学習したモデルを改善するために使用される。
しかし、一部の学習問題では、ラベル情報の一部がラベルのない例から推測され、モデルをさらに改善するために使われることがある。
特に、トレーニング例のサブセットがラベル自体が欠落しているにもかかわらず同じラベルを持っていることが分かっている場合に、部分的なラベル情報が存在する。
モデルにそのようなすべての例に同じラベルを付けるように促すことで、パフォーマンスを向上させることができる。
同じラベルを持つ任意の一対の例の差分ベクトルは、線型モデルのヌル空間にあるはずなので、この励ましを \emph{Nullspace Tuning} と呼ぶ。
本稿では,よく特性化された公開データセットに対する注意深い比較フレームワークを用いて,部分ラベル情報の利用の利点について検討する。
部分ラベルによって提供される付加情報は、良い半教師付き手法よりもテストエラーを通常2倍から5.5倍に減少させることを示す。
また、最新かつ最先端のMixMatchメソッドにNullspace Tuningを追加することで、テストエラーを最大1.8に削減できることを示す。
関連論文リスト
- Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - SepLL: Separating Latent Class Labels from Weak Supervision Noise [4.730767228515796]
弱い教師付き学習では、ラベル付け機能は自動的にデータサンプルにラベルを割り当て、しばしばうるさい。
本研究では,2種類の補完情報を分離し,弱いラベルから学習する手法を提案する。
我々のモデルは最先端技術と競合し、新しい最高の平均性能をもたらす。
論文 参考訳(メタデータ) (2022-10-25T10:33:45Z) - GuidedMix-Net: Semi-supervised Semantic Segmentation by Using Labeled
Images as Reference [90.5402652758316]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
ラベル付き情報を使用して、ラベルなしのインスタンスの学習をガイドする。
競合セグメンテーションの精度を達成し、mIoUを以前のアプローチに比べて+7$%大きく改善する。
論文 参考訳(メタデータ) (2021-12-28T06:48:03Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Multi-label Classification with Partial Annotations using Class-aware
Selective Loss [14.3159150577502]
大規模なマルチラベル分類データセットは、一般的に部分的に注釈付けされている。
部分的なラベリング問題を解析し、2つの重要なアイデアに基づいた解を提案する。
われわれの新しいアプローチにより、OpenImagesデータセット上で最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-21T08:10:55Z) - Learning with Noisy Labels by Targeted Relabeling [52.0329205268734]
クラウドソーシングプラットフォームは、ディープニューラルネットワークをトレーニングするためのデータセット収集によく使用される。
本稿では,少数のアノテーションを予約して,高い確率でラベル付け可能なエラーを明示的に緩和する手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T20:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。