論文の概要: Gray Learning from Non-IID Data with Out-of-distribution Samples
- arxiv url: http://arxiv.org/abs/2206.09375v1
- Date: Sun, 19 Jun 2022 10:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 17:53:18.353851
- Title: Gray Learning from Non-IID Data with Out-of-distribution Samples
- Title(参考訳): 分布サンプルを用いた非iidデータからのグレイ学習
- Authors: Zhilin Zhao and Longbing Cao and Chang-Dong Wang
- Abstract要約: In-of-distriionサンプルを用いて,非IIDデータから頑健に学習するための新しいテキストグラディ学習手法を提案する。
グレーラーニングが非IIDデータに厳密な拘束力を与えることを示す一般化誤差を導出する。
- 参考スコア(独自算出の注目度): 48.435039314959965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of the training data annotated by experts cannot be guaranteed,
even more so for non-IID data consisting of both in- and out-of-distribution
samples (i.e., in-distribution and out-of-distribution samples hold different
distributions). Experts may mistakenly annotate out-of-distribution samples the
same as in-distribution samples, incurring untrustworthy ground-truth labels.
Learning such non-IID data mixing in- and out-of-distribution samples with
untrustworthy labels significantly challenges both shallow and deep learning,
with no relevant work reported. It would be possible to identify trustworthy
complementary labels of a sample indicating which classes it does not belong
to, because both in- and out-of-distribution samples do not belong to the
classes except those corresponding to the ground-truth label. With this
insight, we propose a novel \textit{gray learning} approach to robustly learn
from non-IID data with both in- and out-of-distribution samples. Due to the
uncertain distributions of training samples, we reject the complementary labels
for low-confidence inputs while mapping high-confidence inputs to the
ground-truth labels in training. Building on the statistical learning theory,
we derive the generalization error which shows that gray learning achieves a
tight bound on the non-IID data. Extensive experiments show that our method
provides significant improvement over alternative methods from robust
statistics.
- Abstract(参考訳): 専門家がアノテートしたトレーニングデータの品質は保証できないが、分布内と分布外の両方からなる非iidデータ(分布内と分布外の両方が異なる分布を持つ)では、さらに保証されない。
専門家は、不正に分布外サンプルを分布内サンプルと同一に注釈付けし、信頼できない表層ラベルを引き起こすことがある。
非IIDデータ混合と非分布サンプルを信頼できないラベルで学習することは、浅層学習と深層学習の両方に顕著に挑戦し、関連する研究は報告されていない。
アウトオブディストリビューションとイン・オブ・ディストリビューションの2つのサンプルは、接地ラベルに対応するクラスを除いてはクラスに属しないため、どのクラスに属していないかを示す信頼できる補完的なラベルを識別することが可能である。
そこで本研究では,非iidデータから分布標本と分布標本の両方をロバストに学習する,新しい \textit{gray learning} 手法を提案する。
トレーニングサンプルの分布が不確かであるため,高信頼度入力をグランドトラストラベルにマッピングしながら,低信頼度入力の補完ラベルを拒否する。
統計的学習理論に基づいて,グレイ学習が非iidデータに厳密な束縛を達成していることを示す一般化誤差を導出する。
広範な実験により,本手法はロバスト統計学の代替手法に対して有意な改善をもたらすことが示された。
関連論文リスト
- Self-Knowledge Distillation for Learning Ambiguity [11.755814660833549]
最近の言語モデルは、その正確さを考慮せずに単一のラベルを過度に予測することが多い。
本稿では,ラベル分布をより正確に学習できる新しい自己知識蒸留法を提案する。
本手法を多種多様なNLUベンチマークデータセットで検証し,実験結果から,より優れたラベル分布を生成する上での有効性を実証した。
論文 参考訳(メタデータ) (2024-06-14T05:11:32Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - The Decaying Missing-at-Random Framework: Doubly Robust Causal Inference
with Partially Labeled Data [10.021381302215062]
現実のシナリオでは、データ収集の制限によって部分的にラベル付けされたデータセットが生成されることが多く、信頼性の高い因果推論の描画が困難になる。
半パラメトリック(SS)や欠落したデータ文学における従来のアプローチは、これらの複雑さを適切に扱えないため、偏りのある見積もりにつながる可能性がある。
このフレームワークは、高次元設定における欠落した結果に対処し、選択バイアスを考慮に入れます。
論文 参考訳(メタデータ) (2023-05-22T07:37:12Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。