論文の概要: Elucidating Meta-Structures of Noisy Labels in Semantic Segmentation by
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2205.00160v1
- Date: Sat, 30 Apr 2022 04:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 15:22:55.716759
- Title: Elucidating Meta-Structures of Noisy Labels in Semantic Segmentation by
Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークによるセマンティックセグメンテーションにおける雑音ラベルのメタ構造解明
- Authors: Yaoru Luo, Guole Liu, Yuanhao Guo, Ge Yang
- Abstract要約: 深層ニューラルネットワークは,セマンティックセグメンテーションのための教師付きトレーニングにおいて,それぞれにピクセルレベルのラベルではなくラベルに隠された構造を学習する。
これら隠れた構造を「メタ構造」と呼ぶ
メタ構造を空間密度分布として数学的に定式化し,異なる種類のラベルの意味情報を定量化する。
- 参考スコア(独自算出の注目度): 3.231282838457089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The supervised training of deep neural networks (DNNs) by noisy labels has
been studied extensively in image classification but much less in image
segmentation. So far, our understanding of the learning behavior of DNNs
trained by noisy segmentation labels remains limited. In this study, we address
this deficiency in both binary segmentation of biological microscopy images and
multi-class segmentation of natural images. We classify segmentation labels
according to their noise transition matrices (NTM) and compare performance of
DNNs trained by different types of labels. When we randomly sample a small
fraction (e.g., 10%) or flipping a large fraction (e.g., 90%) of the
ground-truth labels to train DNNs, their segmentation performance remains
largely the same. This indicates that DNNs learn structures hidden in labels
rather than pixel-level labels per se in their supervised training for semantic
segmentation. We call these hidden structures "meta-structures". When we use
labels with different perturbations to the meta-structures to train DNNs, their
performance in feature extraction and segmentation degrades consistently. In
contrast, addition of meta-structure information substantially improves
performance of an unsupervised model in binary semantic segmentation. We
formulate meta-structures mathematically as spatial density distributions and
quantify semantic information of different types of labels, which we find to
correlate strongly with ranks of their NTM. We show theoretically and
experimentally how this formulation explains key observed learning behavior of
DNNs.
- Abstract(参考訳): ノイズラベルによるディープニューラルネットワーク(DNN)の教師付きトレーニングは、画像分類において広く研究されているが、画像セグメント化でははるかに少ない。
これまでのところ,ノイズセグメンテーションラベルで学習したdnnの学習行動の理解は限られている。
本研究では,生体顕微鏡画像のバイナリセグメンテーションと自然画像のマルチクラスセグメンテーションの両方において,この欠陥に対処する。
雑音遷移行列 (ntm) に従ってセグメント化ラベルを分類し, 異なる種類のラベルで訓練されたdnnの性能を比較する。
ランダムに少数のサンプル(例:10%)をサンプリングしたり、DNNを訓練するために接地トラスラベルの大部分(例:90%)を反転させたりした場合、そのセグメンテーション性能はほとんど変わらない。
このことは、DNNがセマンティックセグメンテーションのための教師付きトレーニングにおいて、各ピクセルレベルのラベルではなくラベルに隠された構造を学ぶことを示している。
これらの隠された構造を「メタ構造」と呼ぶ。
メタ構造に異なる摂動を持つラベルを用いてDNNを訓練すると、特徴抽出とセグメンテーションのパフォーマンスは一貫して低下する。
対照的に、メタ構造情報の追加は、二項意味セグメンテーションにおける教師なしモデルの性能を実質的に改善する。
メタ構造を空間密度分布として数学的に定式化し,異なる種類のラベルの意味情報を定量化する。
本論文では,dnnの重要な学習行動について理論的および実験的に解説する。
関連論文リスト
- GNN-MultiFix: Addressing the pitfalls for GNNs for multi-label node classification [1.857645719601748]
グラフニューラルネットワーク(GNN)は、グラフデータの表現を学習するための強力なモデルとして登場した。
我々は,最も表現力の高いGNNでさえ,ノード属性や明示的なラベル情報を入力として使用せずに学習できないことを示す。
本稿では,ノードの機能,ラベル,位置情報を統合したGNN-MultiFixという簡単なアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-21T12:59:39Z) - Understanding Imbalanced Semantic Segmentation Through Neural Collapse [81.89121711426951]
セマンティックセグメンテーションは自然に文脈的相関とクラス間の不均衡分布をもたらすことを示す。
機能中心にレギュレータを導入し、ネットワークが魅力ある構造に近い機能を学ぶことを奨励する。
我々の手法は、ScanNet200テストリーダーボードで1位にランクインし、新しい記録を樹立する。
論文 参考訳(メタデータ) (2023-01-03T13:51:51Z) - Label-Enhanced Graph Neural Network for Semi-supervised Node
Classification [32.64730237473914]
グラフニューラルネットワーク(GNN)のためのラベル強化学習フレームワークを提案する。
まず、各ラベルをクラス内のノードの仮想センターとしてモデル化し、次にノードとラベルの両方の表現を共同で学習する。
提案手法は,同一クラスに属するノードの表現を円滑に行うだけでなく,ラベルセマンティクスをGNNの学習プロセスに明示的にエンコードする。
論文 参考訳(メタデータ) (2022-05-31T09:48:47Z) - NRGNN: Learning a Label Noise-Resistant Graph Neural Network on Sparsely
and Noisily Labeled Graphs [20.470934944907608]
グラフニューラルネットワーク(GNN)は,ノード分類などのグラフ上の半教師付き学習タスクに対して,有望な結果を得た。
多くの実世界のグラフはスパースでノイズの多いラベルが付けられており、GNNの性能を著しく低下させる可能性がある。
半教師付きノード分類のためのラベルノイズ耐性GNNを提案する。
論文 参考訳(メタデータ) (2021-06-08T22:12:44Z) - Deep Neural Networks Learn Meta-Structures to Segment Fluorescence
Microscopy Images [5.9104061269273185]
本研究では,ラベル画像で学習したディープニューラルネットワーク(dnn)が,ほぼ同じセグメンテーション性能をもたらすことを見出した。
ランダムラベルによって訓練されたDNNの学習行動とメタ構造の特性を動機として,教師なしセグメンテーションモデルを提案する。
論文 参考訳(メタデータ) (2021-03-22T05:43:34Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Combining Self-Supervised and Supervised Learning with Noisy Labels [41.627404715407586]
畳み込みニューラルネットワーク(CNN)は、ノイズの多いラベルに容易に適合する。
CNNを堅牢にトレーニングすることは、大きな課題でした。
論文 参考訳(メタデータ) (2020-11-16T18:13:41Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - A Systematic Evaluation: Fine-Grained CNN vs. Traditional CNN
Classifiers [54.996358399108566]
本稿では,大規模分類データセット上でトップノーチ結果を示すランドマーク一般的なCNN分類器の性能について検討する。
最先端のきめ細かい分類器と比較する。
実験において, 粒度の細かい分類器がベースラインを高められるかどうかを判定するために, 6つのデータセットについて広範囲に評価する。
論文 参考訳(メタデータ) (2020-03-24T23:49:14Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。