論文の概要: CoLafier: Collaborative Noisy Label Purifier With Local Intrinsic
Dimensionality Guidance
- arxiv url: http://arxiv.org/abs/2401.05458v1
- Date: Wed, 10 Jan 2024 08:10:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 02:33:47.550293
- Title: CoLafier: Collaborative Noisy Label Purifier With Local Intrinsic
Dimensionality Guidance
- Title(参考訳): CoLafier: 局所固有次元誘導を用いた協調雑音ラベル除去器
- Authors: Dongyu Zhang, Ruofan Hu, Elke Rundensteiner
- Abstract要約: 雑音ラベルを用いた学習に局所固有次元(LID)を用いる新しい手法であるCoLafierを導入する。
CoLafier は LID-dis と LID-gen の2つで構成されている。
- 参考スコア(独自算出の注目度): 5.435793655810986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have advanced many machine learning tasks, but
their performance is often harmed by noisy labels in real-world data.
Addressing this, we introduce CoLafier, a novel approach that uses Local
Intrinsic Dimensionality (LID) for learning with noisy labels. CoLafier
consists of two subnets: LID-dis and LID-gen. LID-dis is a specialized
classifier. Trained with our uniquely crafted scheme, LID-dis consumes both a
sample's features and its label to predict the label - which allows it to
produce an enhanced internal representation. We observe that LID scores
computed from this representation effectively distinguish between correct and
incorrect labels across various noise scenarios. In contrast to LID-dis,
LID-gen, functioning as a regular classifier, operates solely on the sample's
features. During training, CoLafier utilizes two augmented views per instance
to feed both subnets. CoLafier considers the LID scores from the two views as
produced by LID-dis to assign weights in an adapted loss function for both
subnets. Concurrently, LID-gen, serving as classifier, suggests pseudo-labels.
LID-dis then processes these pseudo-labels along with two views to derive LID
scores. Finally, these LID scores along with the differences in predictions
from the two subnets guide the label update decisions. This dual-view and
dual-subnet approach enhances the overall reliability of the framework. Upon
completion of the training, we deploy the LID-gen subnet of CoLafier as the
final classification model. CoLafier demonstrates improved prediction accuracy,
surpassing existing methods, particularly under severe label noise. For more
details, see the code at https://github.com/zdy93/CoLafier.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は多くの機械学習タスクを進化させたが、そのパフォーマンスは現実世界のデータ中のノイズの多いラベルによってしばしば損なわれる。
そこで本研究では,局所内在次元(lid)を用いた雑音ラベル学習手法であるcollafierを提案する。
CoLafier は LID-dis と LID-gen の2つのサブネットで構成されている。
LID-disは特殊分類器である。
我々の独自に構築されたスキームでトレーニングされたLID-disは、サンプルの特徴とラベルの両方を使ってラベルを予測する。
この表現から計算されたLIDスコアは、様々なノイズシナリオにおいて、正しいラベルと間違ったラベルを効果的に区別する。
LID-dis とは対照的に、正規分類器として機能する LID-gen はサンプルの特徴にのみ依存する。
トレーニング中、CoLafierはインスタンス毎に2つの拡張ビューを使用して、両方のサブネットをフィードする。
colafier氏は2つのビューからのlidスコアをlid-disが生成し、両方のサブネットに適合した損失関数に重みを割り当てるものだと考えている。
同時に、分類器として機能するLID-genは擬似ラベルを示唆する。
LID-disはこれらの擬似ラベルを2つのビューと共に処理し、LIDスコアを導出する。
最後に、これらのLIDスコアと、2つのサブネットからの予測の違いがラベル更新決定を導く。
このデュアルビューとデュアルサブネットアプローチは、フレームワーク全体の信頼性を高める。
トレーニングが完了すると、最終分類モデルとしてCoLafierのLID-genサブネットをデプロイする。
colafierは予測精度の向上を示し、特に厳しいラベルノイズ下では既存の手法を上回っている。
詳細はhttps://github.com/zdy93/colafierを参照。
関連論文リスト
- Learning with Noisy Labels: Interconnection of Two
Expectation-Maximizations [41.65589788264123]
労働集約型ラベリングは、ディープラーニングに基づくコンピュータビジョンアルゴリズムの開発においてボトルネックとなる。
雑音データ中の構造的多様体を見つけるタスクとして形式化された雑音ラベル(LNL)問題による学習に対処する。
本アルゴリズムは,複数の標準ベンチマークにおいて,様々な種類のラベルノイズの下でかなりのマージンを有する最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T07:22:30Z) - Beyond the Label Itself: Latent Labels Enhance Semi-supervised Point
Cloud Panoptic Segmentation [46.01433705072047]
表示ラベルの裏側には,LiDARと画像データに埋め込まれた2種類の潜伏ラベルが存在する。
我々は、より信頼性の高いトレーニング用サンプルを拡張できる新しい拡張 Cylinder-Mix を提案する。
また、インスタンスの位置と規模に関する情報を学習し、融合するためのインスタンス位置スケール学習(IPSL)モジュールを提案する。
論文 参考訳(メタデータ) (2023-12-13T15:56:24Z) - CLS: Cross Labeling Supervision for Semi-Supervised Learning [9.929229055862491]
Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
論文 参考訳(メタデータ) (2022-02-17T08:09:40Z) - Group-aware Label Transfer for Domain Adaptive Person Re-identification [179.816105255584]
Unsupervised Adaptive Domain (UDA) Person Re-identification (ReID) は、ラベル付きソースドメインデータセットで訓練されたモデルを、さらなるアノテーションなしでターゲットドメインデータセットに適応することを目的としている。
最も成功したUDA-ReIDアプローチは、クラスタリングに基づく擬似ラベル予測と表現学習を組み合わせて、2つのステップを交互に実行する。
疑似ラベル予測と表現学習のオンラインインタラクションと相互促進を可能にするグループ認識ラベル転送(GLT)アルゴリズムを提案します。
論文 参考訳(メタデータ) (2021-03-23T07:57:39Z) - Unsupervised Pretraining for Object Detection by Patch Reidentification [72.75287435882798]
教師なし表現学習は、オブジェクトディテクタの事前トレーニング表現で有望なパフォーマンスを実現します。
本研究では,オブジェクト検出のための簡易かつ効果的な表現学習手法であるパッチ再識別(Re-ID)を提案する。
私たちの方法は、トレーニングの反復やデータパーセンテージなど、すべての設定でCOCOの同等を大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-08T15:13:59Z) - Dual-Refinement: Joint Label and Feature Refinement for Unsupervised
Domain Adaptive Person Re-Identification [51.98150752331922]
Unsupervised Domain Adaptive (UDA) Person Re-identification (再ID) は、ターゲットドメインデータのラベルが欠落しているため、難しい作業です。
オフラインクラスタリングフェーズにおける擬似ラベルとオンライントレーニングフェーズにおける特徴を共同で改良する,デュアルリファインメントと呼ばれる新しいアプローチを提案する。
本手法は最先端手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-12-26T07:35:35Z) - Semantics-Guided Clustering with Deep Progressive Learning for
Semi-Supervised Person Re-identification [58.01834972099855]
人物の再識別(re-ID)は、同一人物の画像とカメラビューを一致させる必要がある。
本稿では,SGC-DPL(Deep Progressive Learning)を用いたセマンティックスガイドクラスタリング(Semantics-Guided Clustering)の新たなフレームワークを提案する。
我々のアプローチは、半教師付き環境でラベル付きトレーニングデータを増強することができる。
論文 参考訳(メタデータ) (2020-10-02T18:02:35Z) - Self-Supervised Bernoulli Autoencoders for Semi-Supervised Hashing [1.8899300124593648]
本稿では,変分オートエンコーダに基づくハッシュ手法のロバスト性と,監督の欠如について検討する。
本稿では,モデルがラベル分布予測を用いて一対の目的を実現する新しい監視手法を提案する。
実験の結果,いずれの手法もハッシュコードの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-07-17T07:47:10Z) - Attentive WaveBlock: Complementarity-enhanced Mutual Networks for
Unsupervised Domain Adaptation in Person Re-identification and Beyond [97.25179345878443]
本稿では,新しい軽量モジュールであるAttentive WaveBlock (AWB)を提案する。
AWBは相互学習の二重ネットワークに統合され、相互学習の相補性を高め、擬似ラベルのノイズをさらに抑えることができる。
実験により, 提案手法は, 複数のUDA人物再識別タスクを大幅に改善し, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-06-11T15:40:40Z) - Density-Aware Graph for Deep Semi-Supervised Visual Recognition [102.9484812869054]
半教師付き学習(SSL)は、視覚認識のためのディープニューラルネットワークの一般化能力を改善するために広く研究されている。
本稿では,周辺情報を容易に活用できる新しい密度対応グラフを構築することでSSL問題を解決することを提案する。
論文 参考訳(メタデータ) (2020-03-30T02:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。