論文の概要: Adaptive Pseudo Label Selection for Individual Unlabeled Data by Positive and Unlabeled Learning
- arxiv url: http://arxiv.org/abs/2508.07548v1
- Date: Mon, 11 Aug 2025 02:11:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.90863
- Title: Adaptive Pseudo Label Selection for Individual Unlabeled Data by Positive and Unlabeled Learning
- Title(参考訳): 正および負の学習による個人未ラベルデータに対する適応的擬似ラベル選択
- Authors: Takehiro Yamane, Itaru Tsuge, Susumu Saito, Ryoma Bise,
- Abstract要約: 本稿では,正・未ラベルのデータのみを二項分類問題に用いた正・非ラベル学習について紹介する。
PU学習により、様々な背景領域の擬似ラベルを簡単に選択できる。
- 参考スコア(独自算出の注目度): 4.5810803542748495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel pseudo-labeling method for medical image segmentation that can perform learning on ``individual images'' to select effective pseudo-labels. We introduce Positive and Unlabeled Learning (PU learning), which uses only positive and unlabeled data for binary classification problems, to obtain the appropriate metric for discriminating foreground and background regions on each unlabeled image. Our PU learning makes us easy to select pseudo-labels for various background regions. The experimental results show the effectiveness of our method.
- Abstract(参考訳): 医用画像セグメンテーションのための新しい擬似ラベル法を提案し, 「個人画像」を学習し, 有効な擬似ラベルを選択する。
本稿では,2値分類問題に対して正・未ラベルのデータのみを用いる正・未ラベル学習(PUラーニング)を導入し,各未ラベル画像における前景領域と背景領域を識別する適切な指標を得る。
PU学習により、様々な背景領域の擬似ラベルを簡単に選択できる。
実験の結果,本手法の有効性が示された。
関連論文リスト
- Improving Multi-Label Contrastive Learning by Leveraging Label Distribution [13.276821681189166]
マルチラベル学習において、より良い表現を学ぶためにコントラスト学習を活用することは、正と負のサンプルを選択するという重要な課題に直面している。
従来の研究ではラベル間の重なり合いに基づいて正と負のサンプルを選択し、ラベル単位の損失分散に使用していた。
ラベル分布によるマルチラベルコントラスト学習を改善する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-31T14:00:02Z) - You can't handle the (dirty) truth: Data-centric insights improve pseudo-labeling [60.27812493442062]
擬似ラベル法を改善するためにラベル付きデータ品質を調査することが重要であることを示す。
具体的には、擬似ラベルの拡張のために、DIPSと呼ばれる新しいデータキャラクタリゼーションと選択フレームワークを導入する。
本研究では,多種多様な実世界のデータセットを対象とした擬似ラベル手法に対するDIPSの適用性と影響を実証する。
論文 参考訳(メタデータ) (2024-06-19T17:58:40Z) - Leveraging Fixed and Dynamic Pseudo-labels for Semi-supervised Medical Image Segmentation [7.9449756510822915]
半教師付き医用画像セグメンテーションは、注釈のないデータを利用する能力によって、関心が高まりつつある。
現在の最先端の手法は、主にコトレーニングフレームワーク内の擬似ラベルに依存している。
本稿では,同一の未注釈画像に対する複数の擬似ラベルを用いてラベルのないデータから学習する手法を提案する。
論文 参考訳(メタデータ) (2024-05-12T11:30:01Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - PLMCL: Partial-Label Momentum Curriculum Learning for Multi-Label Image
Classification [25.451065364433028]
マルチラベル画像分類は、画像内の全ての可能なラベルを予測することを目的としている。
既存の部分ラベル学習の研究は、各トレーニングイメージがラベルのサブセットでアノテートされている場合に焦点を当てている。
本稿では,トレーニング画像のサブセットのみをラベル付けした新たな部分ラベル設定を提案する。
論文 参考訳(メタデータ) (2022-08-22T01:23:08Z) - GuidedMix-Net: Semi-supervised Semantic Segmentation by Using Labeled
Images as Reference [90.5402652758316]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
ラベル付き情報を使用して、ラベルなしのインスタンスの学習をガイドする。
競合セグメンテーションの精度を達成し、mIoUを以前のアプローチに比べて+7$%大きく改善する。
論文 参考訳(メタデータ) (2021-12-28T06:48:03Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - Semi-supervised Relation Extraction via Incremental Meta Self-Training [56.633441255756075]
半教師付き関係抽出法は,限られたサンプルからの学習に加え,ラベルのないデータを活用することを目的としている。
既存の自己学習手法は段階的なドリフト問題に悩まされ、未ラベルデータにノイズのある擬似ラベルが組み込まれている。
本稿では,リレーショナルラベル生成ネットワークが,メタオブジェクトとしてリレーショナル分類ネットワークを成功・失敗に導くことによって,擬似ラベルの品質評価を生成するメタSREという手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T03:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。