論文の概要、ライセンス

# (参考訳) 大域的・局所的な表現指導による雑音ラベルデータからのロバストな医用画像分類 [全文訳有]

Robust Medical Image Classification from Noisy Labeled Data with Global and Local Representation Guided Co-training ( http://arxiv.org/abs/2205.04723v1 )

ライセンス: CC BY 4.0
Cheng Xue, Lequan Yu, Pengfei Chen, Qi Dou, and Pheng-Ann Heng(参考訳) ディープニューラルネットワークは、様々な自然画像と医療画像コンピューティングタスクで顕著な成功を収めてきた。 しかし、これらの成果は正確に注釈付けされたトレーニングデータに依存している。 ノイズの多いラベル付き画像に遭遇した場合、ネットワークトレーニング手順は困難に悩まされ、サブ最適分類器となる。 この問題は、医用画像の注釈品質がアノテータの専門知識や経験に大きく依存するため、医用画像解析の分野ではさらに深刻である。 本稿では,高品質なアノテート医療データの欠如に対処するために,雑音ラベルデータからロバストな医用画像分類を行うための,グローバルおよびローカル表現学習を用いた新しい協調学習パラダイムを提案する。 具体的には,ノイズラベルフィルタ付き自己センブルモデルを用いて,クリーンでノイズの多いサンプルを効率的に選択する。 そして、クリーンサンプルを共同トレーニング戦略で訓練し、不完全なラベル付きサンプルからの混乱を解消する。 特に,ネットワークを暗黙的に規則化し,自己教師あり方式でノイズサンプルを活用するための,新たなグローバル・ローカル表現学習方式を考案した。 提案手法は,3種類のラベルノイズ,ie,randomノイズ,コンピュータ生成ラベルノイズ,observer間変動雑音を含む4つの医療画像分類データセット上でロバストな学習戦略を評価した。 提案手法は,ノイズラベル法で他の学習よりも優れており,また,各成分の分析実験も行った。

Deep neural networks have achieved remarkable success in a wide variety of natural image and medical image computing tasks. However, these achievements indispensably rely on accurately annotated training data. If encountering some noisy-labeled images, the network training procedure would suffer from difficulties, leading to a sub-optimal classifier. This problem is even more severe in the medical image analysis field, as the annotation quality of medical images heavily relies on the expertise and experience of annotators. In this paper, we propose a novel collaborative training paradigm with global and local representation learning for robust medical image classification from noisy-labeled data to combat the lack of high quality annotated medical data. Specifically, we employ the self-ensemble model with a noisy label filter to efficiently select the clean and noisy samples. Then, the clean samples are trained by a collaborative training strategy to eliminate the disturbance from imperfect labeled samples. Notably, we further design a novel global and local representation learning scheme to implicitly regularize the networks to utilize noisy samples in a self-supervised manner. We evaluated our proposed robust learning strategy on four public medical image classification datasets with three types of label noise,ie,random noise, computer-generated label noise, and inter-observer variability noise. Our method outperforms other learning from noisy label methods and we also conducted extensive experiments to analyze each component of our method.
公開日: Tue, 10 May 2022 07:50:08 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 Robust Medical Image Classification from Noisy 1 ノイズからのロバストな医用画像分類 0.59
Labeled Data with Global and Local Representation グローバルおよびローカル表現によるラベル付きデータ 0.84
Guided Co-training ガイド付きコトレーニング 0.57
Cheng Xue, Lequan Yu, Pengfei Chen, Qi Dou, and Pheng-Ann Heng チェン・ジュ、ルクァン・ユ、ペンフタイ・チェン、チー・ドゥー、フェン・アン・ヘン 0.49
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] V I . s s e e [ ] V 私は。 s s e e である。 0.52
1 v 3 2 7 4 0 1 v 3 2 7 4 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract—Deep neural networks have achieved remarkable success in a wide variety of natural image and medical image computing tasks. 抽象 — ディープニューラルネットワークは、様々な自然画像と医療画像の計算タスクで顕著に成功している。 0.74
However, these achievements indispensably rely on accurately annotated training data. しかし、これらの成果は正確に注釈付けされたトレーニングデータに依存している。 0.44
If encountering some noisy-labeled images, the network training procedure would suffer from difficulties, leading to a sub-optimal classifier. ノイズの多いラベル付き画像に遭遇した場合、ネットワークトレーニング手順は困難に悩まされ、サブ最適分類器となる。 0.68
This problem is even more severe in the medical image analysis field, as the annotation quality of medical images heavily relies on the expertise and experience of annotators. この問題は、医用画像の注釈品質がアノテータの専門知識や経験に大きく依存するため、医用画像解析の分野ではさらに深刻である。 0.79
In this paper, we propose a novel collaborative training paradigm with global and local representation learning for robust medical image classification from noisy-labeled data to combat the lack of high quality annotated medical data. 本稿では,高品質なアノテート医療データの欠如に対処するために,雑音ラベルデータからロバストな医用画像分類を行うための,グローバルおよびローカル表現学習を用いた新しい協調学習パラダイムを提案する。 0.69
Specifically, we employ the self-ensemble model with a noisy label filter to efficiently select the clean and noisy samples. 具体的には,ノイズラベルフィルタ付き自己センブルモデルを用いて,クリーンでノイズの多いサンプルを効率的に選択する。 0.70
Then, the clean samples are trained by a collaborative training strategy to eliminate the disturbance from imperfect labeled samples. そして、クリーンサンプルを共同トレーニング戦略で訓練し、不完全なラベル付きサンプルからの混乱を解消する。 0.69
Notably, we further design a novel global and local representation learning scheme to implicitly regularize the networks to utilize noisy samples in a selfsupervised manner. 特に,ネットワークを暗黙的に規則化し,自己教師あり方式でノイズサンプルを活用するための,新たなグローバル・ローカル表現学習方式を考案した。 0.66
We evaluated our proposed robust learning strategy on four public medical image classification datasets with three types of label noise, i.e., random noise, computer-generated label noise, and inter-observer variability noise. 提案するロバスト学習戦略を,3種類のラベルノイズ,すなわちランダムノイズ,コンピュータ生成ラベルノイズ,オブザーバ間変動雑音を含む4つの医療画像分類データセット上で評価した。 0.85
Our method outperforms other learning from noisy label methods and we also conducted extensive experiments to analyze each component of our method. 提案手法は,ノイズラベル法で他の学習よりも優れており,また,各成分の分析実験も行った。 0.74
Index Terms—Noisy label, collaborative training, representa- 指標項 -ノイズラベル、協調訓練、表現- 0.61
tion learning, self-supervision 自尊心学習, 自己スーパービジョン 0.55
I. INTRODUCTION I. イントロダクション 0.64
Robust medical image analysis has been an increasingly important topic, as accurate and robust algorithms are desired to increase clinical workflow efficiency and reliably support medical-decision-mak ings. 正確で堅牢なアルゴリズムは、臨床ワークフローの効率を高め、医療的意思決定を確実に支援することを望んでいる。 0.58
With the advent of deep learning, encouraging human-level performance has been achieved in a spectrum of challenging medical image diagnosis applications including skin cancer [1], lung cancer [2], retinal diseases [3], histology image analysis [4], etc.. ディープラーニングの出現により、皮膚がん[1]、肺癌[2]、網膜疾患[3]、病理画像解析[4]など、さまざまな医療画像診断応用において、人間レベルのパフォーマンス向上が達成されている。
訳抜け防止モード: 深層学習の出現により, 皮膚癌を含む医用画像診断応用の領域において, 人間レベルのパフォーマンス向上が図られてきた。 肺癌[2 ] 網膜疾患[3 ] 組織学的画像解析 [4] など。
0.76
The success of these applications relies on highly discriminative representations learned by convolutional neural networks (CNNs) from a large amount of carefully labeled data with the aid of domain experts. これらの応用の成功は、畳み込みニューラルネットワーク(cnns)がドメインの専門家の助けを借りて、大量の注意深くラベル付けされたデータから学んだ非常に識別的な表現に依存している。 0.56
Despite the remarkable success, it has been frequently seen that the performance of CNNs is easily affected due to the bias of the training set in complex real-world situations. 顕著な成功にもかかわらず、複雑な実環境におけるトレーニングセットのバイアスにより、CNNのパフォーマンスが容易に影響を受けることがしばしば見受けられる。 0.73
For C. Xue, P. Chen, Q. Dou and P.A. Heng are with the Department of Computer Science and Engineering, The Chinese University of Hong Kong, Hong Kong, China (e-mail: xchengjlu@gmail.com) . のために C. Xue, P. Chen, Q. Dou, P.A. Hengは、香港の中国大学、香港、中国(eメール:xchengjlu@gmail.com )のコンピュータ科学・工学部に所属している。 0.70
L. Yu is with the Department of Statistics and Actuarial Science, The University of Hong Kong, Hong Kong, China (email:lqyu@hku.hk). L. Yuは香港大学 (香港) の統計・アクチュエーター科学部に所属している(email:lqyu@hku.hk)。 0.68
(Corresponding author: Lequan Yu.) Fig. 1: Typical examples of ambiguous malignant and benign images from histology lymph node data (Top) and skin lesion data (Bottom), which are easily to be incorrectly labeled in the practical annotation process. (作者:ルカンユ) 第1図:組織学的リンパ節データ(top)および皮膚病変データ(bottom)から得られた曖昧な悪性・良性画像の典型例。
訳抜け防止モード: (作者:ルカンユ) 図1. 病理組織学的リンパ節データから得られた異常悪性・良性画像の典型例(トップ) 皮膚病変データ(ボトム)は 実践的なアノテーションプロセスで誤ってラベル付けされることが簡単です。
0.59
instance, such bias could come from statistical distribution mismatch across different clinical sites, imbalance of the number of samples across different disease categories, and the variations of disease visual patterns across patient age or gender populations. 例えば、そのようなバイアスは、異なる臨床部位の統計的分布ミスマッチ、異なる疾患カテゴリーのサンプル数の不均衡、および患者の年齢や性別による疾患の視覚パターンの変化から生じる可能性がある。 0.87
Notably, besides these data biases in the aspect of the image itself, the bias with annotation quality commonly exists, and is harmful to the supervised-learningb ased diagnostic solutions. 特に、画像自体のこれらのデータバイアスに加えて、アノテーション品質のバイアスが一般的であり、教師付き学習に基づく診断ソリューションには有害である。 0.71
One typical issue is the problem of noisy labels associated with the collected data, especially for the ambiguous medical images which may confuse clinical experts. 典型的な問題は、収集されたデータに関連するノイズラベル、特に臨床専門家を混乱させる可能性のある曖昧な医療画像の問題である。 0.64
For example, as illustrated in Fig 1, the malignant histology lymph node images present quite similar colors and structures to benign ones, which shows that noisy annotations are inevitable in medical image analysis in practice. 例えば、図1に示すように、悪性組織学のリンパ節画像は良性に非常によく似た色と構造を示しており、実際に医療画像解析ではノイズのアノテーションは避けられないことを示している。 0.70
The same situation can also be observed for skin lesion images. 皮膚病変の画像でも同様の状況が観察できる。 0.71
Moreover, automatically extracting labels from radiological reports by Natural Language Processing (NLP) tools will also result in label noise. また,NLP (Natural Language Processing) ツールでラベルを自動的に抽出することで,ラベルノイズも生じる。 0.79
Therefore, tackling the annotation noise is an important topic in the medical image analysis field. したがって, 医用画像解析の分野では, アノテーションノイズに対処することが重要な課題である。
訳抜け防止モード: したがって、アノテーションノイズに対処する 医療画像分析分野において 重要な話題です。
0.83
The straightforward solution is manually reducing the presence of incorrect labels. 簡単な解決策は、間違ったラベルの存在を手動で減らすことだ。 0.52
However, this procedure is expensive, timeconsuming and impractical. しかし、この手順は高価で時間がかかり、実用的ではない。 0.57
The naive training paradigm with noisy samples is reported to be inadequate, since the CNNs are parameterized with a large model capacity and can eventually memorize all training sample pairs including wrongly-labeled ones [5], [6]. cnnは大きなモデル容量でパラメータ化されており、最終的に間違ったラベルのサンプルを含むすべてのトレーニングサンプルペアを記憶することができるため、ノイズの多いサンプルを持つナイーブなトレーニングパラダイムは不十分であると報告されている [5], [6]。 0.63
Although handling noisy labeled medical data is a crucial task in the era of deep learning, merely preliminary studies have been conducted in the medical image analysis field. ディープラーニングの時代には,ノイズのあるラベル付き医療データを扱うことが重要な課題であるが,医療画像解析の分野では予備的な研究がなされているに過ぎない。 0.67
As far as we know, Dagni et al [7] developed a robust 私たちが知る限り、Dagniら[7]はロバストを開発した 0.68
malignantmalignantbe nignbenignmalignantm alignantbenignbenign 悪性悪性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良性良 0.02
英語(論文から抽出)日本語訳スコア
training strategy by explicitly modeling the label noise as a part of network architecture, and presented the application of binary classification for breast mammograms. ネットワークアーキテクチャの一部としてラベルノイズを明示的にモデル化し,乳房マンモグラムに二分分類を適用した。 0.67
Xue et al [8] proposed to robustly train a CNN classifier with online sample mining and re-weighting approach based on the model uncertainty. モデルの不確実性に基づいたオンラインサンプルマイニングと再重み付けアプローチによるCNN分類器の堅牢なトレーニングを提案している。 0.68
Zhu et al [9] proposed an automatic quality evaluation module and overfitting control module to update the network parameters. Zhu氏らは[9]、自動品質評価モジュールと、ネットワークパラメータを更新するオーバーフィット制御モジュールを提案した。
訳抜け防止モード: Zhu et al [9 ] は自動品質評価モジュールと過剰適合制御モジュールを提案した ネットワークパラメータを更新する。
0.88
Shu et al [10] presented a novel loss function by combining noisy labels with image local visual cues to generate better semantic segmentation. shuら[10]は,ノイズラベルと画像局所視覚手がかりを組み合わせることで,意味的セグメンテーションを改善する新しい損失関数を示した。 0.75
Xue et al [11] proposed a joint optimization scheme with label correction module. xue et al [11] ラベル補正モジュールとの共同最適化スキームを提案した。 0.78
In more broad literature on deep learning, the topic of noisy label learning has been actively investigated in natural image processing. ディープラーニングに関するより広範な文献では、ノイズラベル学習のトピックが自然画像処理において積極的に研究されている。 0.68
Some methods focus on the estimation of the latent transition matrix of labels and use it to calibrate the loss of noisy samples. いくつかの方法はラベルの潜時遷移行列の推定に焦点をあて、ノイズのあるサンプルの損失を校正するためにそれを用いる。 0.69
For example, Goldberger et al [12] estimated the transition matrix of noisy labels by adding an extra softmax operation on top of the original softmax layer. 例えば、Goldbergerら[12]は、元のソフトマックス層の上に余分なソフトマックス演算を加えることで、ノイズラベルの遷移行列を推定した。 0.64
Patrini et al [13] used a two-step solution that firstly computes the label transition matrix then corrected the errors for suspicious noisy samples. Patriniら[13]は、まずラベル遷移行列を計算し、不審なノイズサンプルのエラーを修正した2段階の解を用いた。 0.72
These methods rely heavily on estimating the noisy class posterior. これらの手法はノイズクラス後部の推定に大きく依存している。 0.57
However, the estimation error for noisy class posterior could be largely due to the randomness of label noise and the complicated data biases, which would lead the transition matrix to be poorly estimated. しかし、ノイズの少ないクラス後部における推定誤差は、ラベルノイズのランダム性や複雑なデータ偏差が原因で大きくなり、遷移行列の精度が低下する可能性がある。 0.71
To be free of estimating noisy label transition matrix, a promising direction is to train deep learning models with clean samples, which can be selected according to the noisy classifier’s prediction [14]. ノイズラベル遷移行列を推定しないためには、ノイズ分類器の予測に従って選択可能なクリーンサンプルによるディープラーニングモデルのトレーニングが有望である[14]。 0.62
Intuitively, if the noisy samples could be automatically filtered out from the training database during learning, the model robustness on noisy labeled data is gained. 直感的には、学習中にトレーニングデータベースからノイズサンプルを自動的にフィルタリングできれば、ノイズラベル付きデータのモデルロバスト性が得られます。 0.73
For instance, Jiang et al [15] proposed the MentorNet to train an extra network with a clean validation set to select clean instances from the entire training database. 例えば、Jiang氏ら[15]は、トレーニングデータベース全体からクリーンなインスタンスを選択するためのクリーンな検証セットを備えた余分なネットワークをトレーニングするMentorNetを提案した。 0.66
When the clean validation data is unavailable, MentorNet adopted a selfpaced curriculum to figure out reliable samples for training. クリーンな検証データが利用できない場合、MentorNetはトレーニングのための信頼性の高いサンプルを見つけるためのセルフペースのカリキュラムを採用した。 0.52
In another aspect, Han et al [16] proposed co-teaching, which simultaneously trains two networks in a symmetric way to select small loss samples for training. 別の側面として、Han et al [16] は2つのネットワークを対称的にトレーニングし、トレーニング用の小さな損失サンプルを選択することを提案した。 0.68
However, in the co-teaching framework, only part of the training data can contribute to the learning process in each epoch, which leads to unwanted waste of the valuable data samples with “noisy” annotations. しかし、コティーチングフレームワークでは、トレーニングデータの一部だけが、各時代における学習プロセスに寄与できるため、価値あるデータサンプルを“ノイジー”アノテーションで無駄にしてしまう。 0.69
In practice, medical images usually contain hard samples that also have large training loss due to different image quality/imbalanced class distribution. 実際には、医用画像は、通常、画像品質/不均衡クラス分布の違いによるトレーニング損失が大きいハードサンプルを含んでいる。 0.68
Discarding these hard samples will further change the class distribution and damage the representative ability of the learned deep features. これらのハードサンプルを識別すると、クラス分布がさらに変化し、学習された深い特徴の代表的能力が損なわれる。
訳抜け防止モード: これらのハードサンプルの発見 さらにクラス分布を変更し、学習した深い機能の代表的な能力を損なう。
0.69
In this paper, we aim to develop a robust medical image classification method utilizing the noisy labeled data inherent in the training procedure. 本稿では,トレーニング手順に固有のノイズラベル付きデータを利用した,堅牢な医用画像分類手法を提案する。 0.76
We propose a novel co-training framework with global and local representation learning for effectively tackling the sample selection bias and adopting all of the training data without wasting it. サンプル選択バイアスを効果的に解決し,すべてのトレーニングデータを無駄にすることなく採用するための,グローバルおよびローカル表現学習を用いた新しいコトレーニングフレームワークを提案する。 0.74
We simultaneously train two student-teacher networks and each student-teacher network learns from each other to alleviate the bias caused by the noisy label. また,2つの教師ネットワークを訓練し,各教師ネットワークが相互に学習し,ノイズラベルによるバイアスを軽減する。 0.78
In particular, in each training cycle, the two student-teacher networks are trained independently for one epoch, followed by a noisy label filter (NLF) to automatically 特に、各トレーニングサイクルにおいて、生徒と教師の2つのネットワークは独立して1つのエポックを訓練し、次いでノイズラベルフィルタ(nlf)によって自動的に学習される。
訳抜け防止モード: 特に、各学習サイクルにおいて、教師ネットワークは1つの時代に向けて独立して訓練される。 自動的にノイズラベルフィルタ(NLF)が続く。
0.72
2 divide the training data into clean samples and noisy samples (or hard samples) according to the predictions of the teacher encoder. 2 トレーニングデータを、教師エンコーダの予測に従って、クリーンなサンプルとノイズの多いサンプル(またはハードサンプル)に分割する。 0.60
Then the divided samples are crossly fed into the peer student-teacher network as input training data. そして、入力訓練データとして、分割サンプルを相互にピア学生教師ネットワークに供給する。 0.74
During training, the student-teacher network directly utilizes the clean samples in a fully supervised learning manner such that those noisy labels make less influence on model optimization. トレーニング中、学生-教師ネットワークは、クリーンなサンプルを完全に教師付き学習方法で直接利用し、ノイズの多いラベルがモデル最適化に影響を及ぼさないようにする。
訳抜け防止モード: 授業中,教師ネットワークは,完全教師付き学習方式でクリーンサンプルを直接活用する。 ノイズの多いラベルは モデルの最適化に あまり影響しない
0.80
More importantly, we design a novel global and local representation learning scheme to employ the noisy samples in a selfsupervised manner. さらに, 雑音サンプルを自己教師ありで活用するために, 新たなグローバル・ローカル表現学習方式を考案した。 0.63
This scheme includes a local contrastive loss to regularize the sample local clustering by pulling the similar samples together and pushing different samples far away; and a global relationship consistency loss, applied on all the samples, to regularize the sample structure relationship consistency. このスキームには、類似したサンプルをまとめて異なるサンプルを遠方に押し込むことでサンプルローカルクラスタリングを正則化する局所的なコントラスト損失と、すべてのサンプルに適用されるグローバル関係一貫性損失が含まれ、サンプル構造関係一貫性を正則化する。 0.83
In the testing phase, the final prediction result is acquired by averaging the prediction of the two teacher models. 試験段階では、2つの教師モデルの予測平均化により最終予測結果を取得する。 0.80
Our main contributions can be summarized as follows: • We propose a novel self-supervised loss with global and local regularization to preserve the sample utilization efficiency and alleviate the overfitting of noisy labels. 本研究は, サンプル利用効率を保全し, ノイズラベルの過度な適合を緩和するために, グローバルおよびローカルな正規化による新たな自己監督的損失を提案する。 0.63
• We develop a new self-ensemble co-training framework for robust medical image classification. •ロバストな医用画像分類のための新しい自己センブルコトレーニングフレームワークを開発した。 0.82
We employ a student-teacher network instead of a single network to more robustly filter the clean samples and thereby eliminate the disturbance from noisy samples. 我々は,1つのネットワークではなく,学生と教師のネットワークを用いて,クリーンサンプルをより堅牢にフィルタリングし,ノイズの多いサンプルから乱れを取り除く。 0.70
• The presented noisy label learning strategy has been extensively validated on three typical medical image noisy labels with public datasets, i.e., random noise, inter-rater variability, and computer generated noise. • 提案したノイズラベル学習戦略は, 公開データセットを用いた3つの典型的な医用画像ノイズラベル(ランダムノイズ, レータ間変動, コンピュータ生成ノイズ)で広く検証されている。 0.74
The proposed method consistently improves the prediction accuracy across different datasets and outperforms other learning from noisy labeled data methods. 提案手法は, 異なるデータセット間の予測精度を一貫して向上させ, ノイズラベル付きデータ手法による他の学習よりも優れる。 0.66
A. Deep Learning with Noisy Labels A. 雑音ラベルによる深層学習 0.79
II. RELATED WORK it II。 関連作業 それ 0.68
issue, Although some approaches have been considered to address the noisy label is still an ongoing issue in the deep learning community. 問題だ ノイズラベルに対処するいくつかのアプローチは、ディープラーニングコミュニティでは現在も進行中の課題である。 0.54
Existing literature on training with noisy labels focuses primarily on two directions. 既存のノイズラベルによるトレーニングに関する文献は主に2つの方向に焦点を当てている。 0.53
(1) estimate the transition matrix approaches ( [17]–[20]). 1) 遷移行列のアプローチ([17]–[20])を推定する。 0.59
Sukhbaatar et al. Sukhbaatarなど。 0.53
[21] proposed a noise transformation to estimate the transition matrix, which needed to be periodically updated and is non-trivial to learn. [21]は,周期的に更新される必要があり,学習が簡単でない遷移行列を推定する雑音変換を提案した。 0.81
Patrini et al [13] designed a two-stage framework to learn on the noisy labeled training data, where in the first stage the transition matrix was estimated, and a correction loss was employed in the second stage. Patrini et al [13] はノイズラベル付きトレーニングデータから学習するための2段階のフレームワークを設計し,第1段階で遷移行列が推定され,第2段階で補正損失が採用された。 0.85
Similarly, Goldberger et al [12] proposed to estimate the latent label transition matrix using deep learning method in an end-toend manner by adding an extra layer. 同様に、Goldbergerら[12]は、付加層を追加してエンドツーエンドにディープラーニング手法を用いて潜在ラベル遷移行列を推定することを提案した。 0.64
The accuracy of the classifier trained on noisy labeled data can be improved by such accurate estimation. ノイズラベルデータに基づいて学習した分類器の精度は, 高精度な推定により向上する。 0.72
However, the label transition matrix is hard to be estimated in reality due to complicated data biases. しかし、ラベル遷移行列は複雑なデータバイアスのため、現実に推定することは困難である。 0.75
Moreover, the label noises in the medical image are usually instance dependent noise, which makes the estimation of transition matrix even challenging. さらに、医療画像中のラベルノイズは、通常インスタンス依存ノイズであり、遷移行列の推定をさらに困難にする。 0.66
(2) Sample selection strategy. (2)サンプル選択戦略 0.68
Some works are designed to re-label/weight selected いくつかの作品は、選択されたラベル/ウェイトを書き換えるように設計されている 0.30
英語(論文から抽出)日本語訳スコア
instances [22], [23] or train on selected clean instances [6], [15], [16], [24], [25]. インスタンス [22], [23] あるいは選択されたクリーンインスタンス [6], [15], [16], [24], [25] でトレーニングする。 0.70
Tanaka et al [22] proposed a joint optimization framework, where the label of training data was updated during the training process. Tanaka氏ら[22]は、トレーニングプロセス中にトレーニングデータのラベルが更新される、共同最適化フレームワークを提案した。 0.69
Jiang et al [15] proposed to select clean instances for network training according to extra clean data. Jiang氏らは、余分なクリーンデータに従って、ネットワークトレーニングのためのクリーンなインスタンスを選択することを提案した。
訳抜け防止モード: Jiang et al [15 ] の提案 余分なクリーンデータに従って、ネットワークトレーニング用のクリーンインスタンスを選択する。
0.63
However, the extra clean data is not practical in clinical. しかし、余分なクリーンデータは臨床的に実用的ではない。 0.66
They adopted a self-paced curriculum to figure out reliable samples for training when the extra clean validation data is unavailable. 彼らは、余分にクリーンな検証データが利用できない時に、トレーニングのための信頼できるサンプルを見つけるために、自己ペースのカリキュラムを採用した。 0.47
Han et al [16] presented a co-teaching learning paradigm by simultaneously training two models and removing the potential noisy samples in each mini-batch according to the training loss of each input data. Han et al [16]は、2つのモデルを同時に訓練し、各入力データのトレーニング損失に応じて、各ミニバッチ内の潜在的なノイズサンプルを除去することで、共学学習パラダイムを提示した。 0.64
Besides, some recent works also adopted a semi-supervised learning strategy to address the noisy label problem ( [11], [24], [26]– [28]) by generating pseudo labels or adding regularization. また、近年のいくつかの研究は、擬似ラベルの生成や正規化の追加によってノイズラベル問題([11], [24], [26]– [28])に対処するための半教師付き学習戦略も採用している。 0.75
Our method uses a self-supervised strategy to effectively utilize the samples by specifically designed inter-patient relationship loss and local contrastive loss. 本手法は, 患者間関係損失と局所的コントラスト損失を特異的に設計し, サンプルを効果的に活用するための自己監督戦略を用いている。
訳抜け防止モード: 我々の手法は自己監督型戦略を用いる 特別に設計された患者間関係損失と局所的コントラスト損失を有効活用する。
0.67
B. Noisy Label Learning for Medical Image Analysis B. 医用画像解析のための雑音ラベル学習 0.90
The annotation quality of medical 医学のアノテーションの質 0.70
images is prone to experience, which requires years of professional training and domain knowledge. イメージは経験しがちです 長年の専門的な訓練と ドメイン知識が必要です 0.75
There exist many ambiguous images that will confuse the clinical experts, and therefore, results in misdiagnosis/wrong annotation, and disagreements. 臨床専門家を混乱させる曖昧な画像が多数存在し、誤診・怒りの注釈や意見の相違が生じている。 0.64
For some large-scale datasets, the annotation is also heavily relied on automatically extracting labeling from radiological reports by natural language processing tools, which inevitably results in a certain level of label noise. 一部の大規模データセットでは、このアノテーションは、必然的に一定のレベルのラベルノイズをもたらす自然言語処理ツールによって、放射線学的レポートからラベルを自動的に抽出することにも大きく依存している。
訳抜け防止モード: 大規模なデータセットでは、自然言語処理ツールによる放射線レポートからのラベルの自動抽出に大きく依存している。 それは必然的に一定のレベルのラベルノイズを引き起こします。
0.70
Manually reducing those incorrect annotations requires agreements between experts and is timeconsuming. これらの誤ったアノテーションを手動で削減するには、専門家間の合意が必要であり、時間がかかります。 0.38
Some studies have addressed the existence of noisy labeled medical images during the network training process. ネットワークトレーニング過程におけるノイズラベル付き医療画像の存在に対処する研究もある。 0.77
Dgani et al [7] proposed to estimate the transition matrix of the noisy label during the training process by optimizing an extra softmax layer, it was heavily dependent on the noise label transition matrix assumption. Dgani et al [7] は, 付加ソフトマックス層を最適化することにより, ノイズラベル遷移行列の仮定に大きく依存し, トレーニング過程におけるノイズラベルの遷移行列を推定することを提案した。 0.77
Shu et al [10] proposed to weaken the influence of noisy annotation in segmentation tasks by utilizing potential visual guidance during the learning process. shuら[10]は,学習過程における潜在的視覚指導を活用し,セグメンテーションタスクにおける雑音アノテーションの影響を弱めることを提案した。 0.75
To suppress the influence of noisy labels, some methods proposed a sample selection strategy to train deep learning models on selected data or assign appropriate weight to the training data. ノイズラベルの影響を抑えるために,選択したデータに基づいてディープラーニングモデルをトレーニングしたり,トレーニングデータに適切な重みを割り当てたりするためのサンプル選択戦略を提案した。 0.76
Xue et al [8] proposed a robust learning framework for noisy labeled medical image classification, where the severe hard samples and noisy labels in medical images are both considered by a sample selection module and a sample re-weighting strategy. Xue et al [8] は, 医用画像分類のための頑健な学習フレームワークを提案し, 医用画像中の強硬なサンプルとノイズのあるラベルを, サンプル選択モジュールとサンプル再重み付け戦略により検討した。 0.85
Min et al [29] presented a semi-supervised biomedical segmentation network with noisy labels, where the noisy label issue was tackled by weakening the noisy gradients in multiple layers. Minら[29]は、ノイズラベル付き半教師付きバイオメディカルセグメンテーションネットワークを示し、ノイズラベル問題は複数の層におけるノイズ勾配を弱めることで取り組んだ。 0.71
Zhu et al [9] proposed to evaluate the quality of the labels and use good ones to turn the network parameters. Zhu氏ら[9]は、ラベルの品質を評価し、良いものを使ってネットワークパラメータを回すことを提案した。 0.74
Le et al [30] utilized a small set of clean training samples and assigned weights to training samples to deal with sample noise. le et al [30]はクリーンなトレーニングサンプルのセットを使用し、サンプルノイズに対処するためにトレーニングサンプルにウェイトを割り当てた。
訳抜け防止モード: Le et al [30 ] はクリーントレーニングサンプルの小さなセットを利用した サンプルノイズに対処するため トレーニングサンプルに重量を割り当てました
0.86
However, the previously proposed sample selection strategy has not considered the selection bias caused by the erroneous guiding of noisy samples, and only part of the valuable training data is used. しかし, これまでに提案したサンプル選択戦略は, ノイズサンプルの誤案内による選択バイアスを考慮せず, 貴重なトレーニングデータの一部のみを用いている。 0.86
The main challenge for medical image analysis with the noisy label has two aspects: (1) the difficulty of noisy label de- ノイズラベルを用いた医用画像解析の主な課題は,(1)ノイズラベルdeの難しさである。 0.61
3 tection. Many hard samples (Fig. 3 テクション 多くの硬いサンプル(図)。 0.54
1) are inherently hard to learn and can be confused with noisy ones ( [8], [31]). 1)学習は本質的に困難であり,うるさいもの([8],[31])と混同される可能性がある。 0.76
However, directly discarding detected noisy samples will result in the missing of hard samples that are essential for discriminative feature learning. しかし、検出されたノイズサンプルを直接破棄すると、識別的特徴学習に不可欠なハードサンプルが欠落する。 0.72
(2) How to utilize the detected noisy labeled data. 2)検出されたノイズラベルデータの利用方法。 0.76
Some studies discarded samples with a high probability of being incorrectly labeled or maintain these samples in a semi-supervised manner by refining those labels ( [25], [26]). いくつかの研究は、それらのラベルを精錬することによって、これらのサンプルを誤ってラベル付けしたり、半教師付きで維持する確率の高いサンプルを捨てた([25], [26])。
訳抜け防止モード: 誤ってラベル付けされる確率が高いサンプルを捨てた研究 あるいは、これらのラベル([25 ])を書き換えることで、これらのサンプルを半教師付きで維持する。 [ 26 ] ) .
0.74
The semi-supervised learning would be an ideal approach when the training data has a large proportion of noisy labels. 半教師付き学習は、トレーニングデータが多くのノイズラベルを持つ場合に理想的なアプローチである。 0.72
However, the noisy label proportion of medical images is lower than nature images acquired from the web. しかし,医療画像のノイズラベルの割合は,Webから取得した自然画像よりも低い。 0.82
For a dataset with fewer noisy labels, the generation of the pseudo labels will introduce more noise to the labels, especially for those hard samples. ノイズの少ないラベルを持つデータセットの場合、擬似ラベルの生成は、特に硬いサンプルに対して、ラベルにより多くのノイズをもたらす。 0.76
C. Skin Lesion and Lymph Node Analysis C.皮膚病変とリンパ節解析 0.80
Automated classification of skin lesion images is a challenging task owing to the fine-grained variability in the appearance of skin lesions. 皮膚病変画像の自動分類は,皮膚病変の出現における微細な変化のため,困難な課題である。 0.80
Deep convolutional neural networks show potential for general and highly variable tasks across many fine-grained object categories. 深部畳み込みニューラルネットワークは、多くの細粒度オブジェクトカテゴリにまたがる一般および高可変タスクの可能性を示す。 0.68
A few deep learning algorithms have been proposed for dermoscopy images ( [32]–[36]). dermoscopy image ([32]–[36])では、いくつかのディープラーニングアルゴリズムが提案されている。 0.75
Premaladha et al [35] adopted deep learning and hybrid AdaBoost Support Vector Machine (SVM) algorithms to classify melanoma skin lesions. Premaladha et al [35]は、メラノーマ皮膚病変を分類するために、ディープラーニングとハイブリッドAdaBoost Support Vector Machine (SVM)アルゴリズムを採用した。
訳抜け防止モード: Premaladha et al [35 ] はディープラーニングとハイブリッド AdaBoost Support Vector Machine (SVM) アルゴリズムを採用した メラノーマの皮膚病変を分類します
0.82
This system was tested on 992 images and obtained a high classification accuracy (93%). このシステムは992枚の画像でテストされ、高い分類精度(93%)を得た。 0.77
Kawahara et al [34] employed a fully convolutional network to extract multi-scale features for melanoma recognition, the author reported accuracy of 85.8% on a five-class classification problem. 川原ら [34] は, 完全畳み込みネットワークを用いてメラノーマ認識のためのマルチスケール特徴抽出を行い, 5分類問題において85.8%の精度を示した。 0.80
Yu et al [36] applied a very deep residual network with a two-stage framework to distinguish melanoma from non-melanoma lesions. yu et al [36]は黒色腫と非黒色腫を区別するために2段階の枠組みで非常に深い残留ネットワークを適用した。 0.65
A series of studies related to whole-slide image analysis have been presented for a variety of classification, detection, and segmentation tasks. 全スリッド画像解析に関する一連の研究が、様々な分類、検出、およびセグメンテーションタスクのために提示されている。 0.71
Wang et al [37] detected the lymph node in whole slice images with the ensemble of two GoogLeNets. Wang et al[37]は2つのGoogLeNetのアンサンブルでスライス画像全体のリンパ節を検出した。 0.75
Kong et al [38] detected cancer metastasis using a spatially structured deep network with appearance and spatial dependencies. Kong et al[38]は外見と空間依存性を持つ深層ネットワークを用いて癌転移を検出した。 0.72
Courtio et al [39] detected the lymph node metastases in a weakly supervised manner with feature embedding and multiple instance learning techniques. courtio et al [39]は,特徴埋め込みと複数のインスタンス学習技術を用いてリンパ節転移を弱い監督方法で検出した。 0.70
Liu et al. liu et alの略。 0.20
[40] adopted Inception architecture with patch sampling and data augmentations to aid breast cancer metastasis detection in lymph nodes. [40] リンパ節転移検出のためのパッチサンプリングとデータ拡張を伴うインセプション・アーキテクチャを採用した。
訳抜け防止モード: [40 ]パッチサンプリングとデータ拡張を備えたインセプションアーキテクチャ 乳癌のリンパ節転移を検出するのに役立ちます
0.67
Cruz et al [41] presented a classification approach for detecting the presence and extent of invasive breast cancer on the whole slide digitized pathology images using a CNN classifier. Cruz et al [41] は,CNN分類器を用いて,スライド画像全体に対する浸潤性乳癌の存在と範囲を検出するための分類手法を示した。 0.85
A. Problem Setting III. A.問題設定 III。 0.75
METHODS In supervised learning, we consider finding a mapping function f : X → Y, where X is image space, Y is label space, and f describes the complex relationship between them. 方法 教師あり学習では、x が画像空間、y がラベル空間、f がそれらの間の複素関係を記述する写像関数 f : x → y を見つけることを考える。 0.48
To learn the mapping function f (·), a loss objective is usually defined to penalize the observed differences between the model prediction f (x) and the ground truth target y for a training 写像関数 f(·) を学習するために、通常、損失目標がモデル予測 f(x) と基底真理目標 y との観測された相違をペナルティ化するために定義される。 0.79
英語(論文から抽出)日本語訳スコア
4 Fig. 2: An overview of the proposed co-training with global and local representation learning framework: 4 図2:グローバルおよびローカルな表現学習フレームワークによる協調学習の提案の概要 0.58
(a) is the co-training scheme with two independent student-teacher networks and a noisy label detection procedure. (a)2つの独立した学生・教師ネットワークと雑音のラベル検出手順による共同学習方式である。 0.65
NLF is the noise label filter. NLFはノイズラベルフィルタである。 0.86
(b) represents the detailed training procedure of the teacher-student network. (b)教師学生ネットワークの詳細な訓練手順を表す。 0.78
The network directly employs the clean samples with supervised cross-entropy loss. ネットワークは、監視されたクロスエントロピー損失を伴うクリーンサンプルを直接使用する。 0.58
The local contrastive loss is applied on noisy samples and the global relation loss is applied on both clean and noisy samples. 局所的なコントラスト損失をノイズ試料に適用し、クリーン試料とノイズ試料の両方にグローバル関係損失を適用する。 0.71
The weights of the teacher encoder are updated by the exponential moving average (EMA) of the student encoder. 教師エンコーダの重量は、生徒エンコーダの指数移動平均(EMA)によって更新される。 0.73
sample pair. The aim is to learn a classifier that can predict a label for the given observation x at testing time. サンプルペア。 目的は、テスト時に与えられた観察xのラベルを予測できる分類器を学習することである。 0.71
Typically, an estimated risk R(f ) is computed with the observed set of training samples 通常、推定リスクR(f)は、観測されたトレーニングサンプルセットで計算される。 0.76
R(f ) = E(x,y)∼PX ,Y [L(f r(f ) = e(x,y)\px ,y [l(f) である。 0.74
(x), y)]. (1) The optimal classifier is the one which minimizes the expected risk,i.e., f∗ = argmin R(f ). (x) y)。 1) 最適分類器は、期待されるリスク、すなわち f∗ = argmin r(f ) を最小化するものである。 0.45
More specifically, in our problem setting, we denote x as an image sample and ˆy as its observed label but possibly noisy (i.e., incorrect). より具体的には、我々の問題設定では、x を画像のサンプルとし、y を観測されたラベルとして表すが、うるは雑音(すなわち、正しくない)である。 0.58
The real ground truth label y for the sample is unknown due to various annotation limitations, misdiagnosis, or disagreements. サンプルの実際の基底真理ラベル y は、様々な注釈制限、誤診断、不一致のため不明である。 0.68
During training, we only have ˆy assigned to each sample, which means that for a noisy labeled training dataset, there are input images x, the noisy labels ˆy, and the latent clean labels y. つまり、ノイズラベル付きトレーニングデータセットには、入力画像x、ノイズラベルs_y、潜在クリーンラベルyがある。
訳抜け防止モード: トレーニング中は、各サンプルに割り当てられた'y'しかありません。 つまり ノイズラベル付きトレーニングデータセットには 入力画像 x, ノイズラベルは y で、遅延クリーンラベルは y です。
0.65
In our approach, we train a network based on {x, ˆy} with underlying {x, y} unavailable. このアプローチでは、基礎となる {x, y} が利用できない {x, y} に基づいてネットワークを訓練する。 0.67
It has been reported that naive training with the noisy labels ˆy will result in performance degradation for predictions on test set ( [5], [6]). ノイズラベル sy によるナイーブなトレーニングは、テストセット ([5], [6]) における予測のパフォーマンス低下をもたらすと報告されている。
訳抜け防止モード: ノイズラベル sy によるナイーブなトレーニングは,テストセット ([5]) における予測性能の低下をもたらすと報告されている。 [ 6 ] ) .
0.76
With our proposed robust learning strategy, we aim to optimize the CNN classifier with {x, ˆy} while achieving comparable results with a model trained on {x, y}. 提案した頑健な学習戦略では, CNN分類器を {x, y} で最適化するとともに, {x, y} で訓練したモデルで同等の結果を得る。 0.79
B. Co-training Paradigm with Noise Label Filter B.ノイズラベルフィルタを用いた協調学習パラダイム 0.56
To alleviate the error flow coming from the biased selection of the training instances, we adopt the two networks training トレーニングインスタンスのバイアス選択によるエラーフローを軽減するために,2つのネットワークトレーニングを採用する。 0.80
(a) (b) Fig. 3: The per-sample training loss of the lymph node histpathologic images with 40% random noise trained by cross entropy. (a) (b) 第3図:クロスエントロピーでトレーニングされた40%のランダムノイズを伴うリンパ節病理画像のサンプル毎のトレーニング損失。 0.52
(a) The per-sample loss distribution after 10 epoch, the different colors represent different classes. (a)サンプルあたりの損失分布は10エポック後、異なる色は異なるクラスを表す。 0.86
(b) The persample loss distribution after 20 epoch. (b)20歳未満のパーサンプルロス分布。 0.70
We plot the distribution of clean samples and noise samples. クリーンサンプルとノイズサンプルの分布をプロットする。 0.68
scheme as [6], [16], [42]. 6], [16], [42] のようなスキーム。 0.65
Fig 2 elaborates our proposed selfensemble co-training paradigm. fig 2では、提案されたselfensemble co-trainingパラダイムについて詳しく説明しています。 0.31
Our framework maintains two independent teacher-student networks trained simultaneously, denoted as student-teacher A and student-teacher B. These two networks have different weight parameters due to the different initialization, different image augmentation, different training data division, and different mini-batch sequences so that they can filter out the noisy labels independently. これら2つのネットワークは,初期化,画像拡張,トレーニングデータ分割,およびミニバッチシーケンスの違いにより,それぞれが独立してノイズラベルをフィルタリングできるように,異なる重みパラメータを持つ。
訳抜け防止モード: 我々のフレームワークは2つの独立した教師-学生ネットワークを同時に訓練している。 学生 - 教師 - A と 生徒 - 教師 - B で表される。 異なるイメージ拡張、異なるトレーニングデータ分割、異なるミニ - バッチシーケンスのために ノイズラベルは別々にフィルタリングできます
0.77
Fig 2(a) shows the procedure of one training cycle, after train the 図2(a)は、1つのトレーニングサイクルの手順を示します。 0.75
input Student-Teacher AStudent-Teacher BNLFNLFClean(A),Nois y(A)Noisy datasetNoisydatasetC lean(B),Noisy(B)Teac herEncoderClassifier ProjectionRelationCr ossEntropyLossAugmen tationEMARelationAug mentationGlobalRelat ionLossLocalContrast iveLossCleanNoisy 入力 学生教師 AStudent-Teacher BNLFNLFClean(A),Nois y(A)Noisy datasetNoisydatasetC lean(B),Noisy(B)Teac herEncoderClassifier ProjectionRelationCr ossEntropyLossAugmen tationEMARelationAug mentationGlobalRelat ionLossLocalContrast iveLossCleanNoisy 0.43
(a)Co-trainingwithno isylabelfilter a)co-trainingwithnoi sylabelfilter 0.31
(b)Student-TeacherNe tworkwithglobalandlo calrepresentationlea rningPredicted Loss (A)Predicted Loss (B)Co-training withdivided dataClassifierClassi fierConsistencyLossC leanNoisyStudentEnco der b)Student-TeacherNet workwithglobaland Localrepresentationl earning Predicted Loss (A)Predicted Loss (B)Co-training withdivided dataClassifierClassi fierConsistencyLossC leanNoisyStudentEnco der 0.15
英語(論文から抽出)日本語訳スコア
student-teacher network for one epoch, all the training data go through a noisy label detection process, where the predicted loss (A) and predicted loss (B) of all the samples on studentteacher A and student-teacher B are calculated. 1つのエポックのための生徒-教師ネットワークは、すべてのトレーニングデータがノイズラベル検出プロセスを通過し、教師Aと教師Bの全てのサンプルの予測損失(A)と予測損失(B)が算出される。 0.85
Then we fit the predicted loss (A) in a noisy label filter to acquire a clean group and a noisy group, denoted as clean (A), noisy (A). 次に、予測損失(A)をノイズラベルフィルタに適合させてクリーングループとノイズグループを取得し、クリーン(A),ノイズ(A)と表現する。
訳抜け防止モード: そして、予測された損失に適合する (A) ノイズのあるラベルフィルターで クリーンなグループとノイズの多いグループを取得します clean (A)、noisy (A) と表記される。
0.77
The same process for predicted loss (B) to acquire clean (B), noisy (B). 予測損失(B)がクリーン(B)、ノイズ(B)を取得するのと同じプロセスである。 0.77
The divided clean and noisy samples are crossly sent to the peer student-teacher network as new input data. 分割されたクリーンでノイズの多いサンプルは、新しい入力データとしてピア学生-教師ネットワークにクロス送信される。 0.61
For example, we train student-teacher network A by (clean (B), Noisy (B)) and vice versa. 例えば、学生教師ネットワークaを(クリーン(b))、ノイズ(b)で訓練し、その逆も行う。 0.72
With the renewed dataset from its peer network, each student-teacher network trained independently in the next cycle. ピアネットワークからデータセットが更新され、各生徒と教師のネットワークは次のサイクルで独立してトレーニングされる。 0.66
We use the blue and orange colored box and arrow to show the data flow. 青とオレンジ色のボックスと矢印を使って、データフローを示しています。
訳抜け防止モード: 私たちは青とオレンジ色の箱と矢を使う データの流れを示します
0.82
Different from Co-teaching [16] that selected small loss samples and proceed crossed training in each mini-batch, we perform crossed training after each epoch with the divided training samples. 小さい損失サンプルを選択し,各ミニバッチでクロストレーニングを続行するコティーチング [16] と異なり, 各エポック後のクロストレーニングを分割トレーニングサンプルで実施する。 0.81
To tackle the challenge of noisy label detection, after each epoch we predict the cross entropy loss of all the training data by two teacher networks respectively and input the cross entropy loss into a noisy label filter (NLF) separately as shown in Fig 2 (a). ノイズラベル検出の課題に対処するため、各エポック後の2つの教師ネットワークによるトレーニングデータのクロスエントロピー損失を予測し、図2(a)に示すように、クロスエントロピー損失をノイズラベルフィルタ(NLF)に別々に入力する。 0.77
The NLF adopts a two-component Gaussian Mixture Model to fit the max-normalized loss of the training data using the Expectation-Maximiza tion algorithm in which the clean and noisy components are divided in an unsupervised manner. nlfは、クリーン成分とノイズ成分を教師なしの方法で分割した期待最大化アルゴリズムを用いて、トレーニングデータの最大正規化損失に適合する2成分ガウス混合モデルを採用する。 0.74
For each sample li, its clean probability wi is the posterior probability p(g|li), where g is the Gaussian component with smaller mean. 各サンプル Li に対して、そのクリーン確率 wi は後続確率 p(g|li) であり、g はより小さい平均を持つガウス成分である。 0.75
The noisy label filter divides the training samples into clean set and noise set by setting a threshold t on wi. ノイズラベルフィルタは、トレーニングサンプルをクリーンセットとノイズセットに分割し、閾値tをwiに設定する。 0.76
During training, we employ a linear schedule t, that t gradually decreased from 0.9 to 0.5 in the first 10 epochs, and maintain 0.5 in the following epochs. 訓練中は線形スケジュールtを用い,最初の10エポックでは0.9から0.5に徐々に減少し,次のエポックでは0.5を維持した。
訳抜け防止モード: トレーニング中, 線形スケジュール t を用い, t は 0.9 から 0.5 へと徐々に減少していった。 以下のエポックで0.5を維持します
0.81
The strategy can select the most confident samples at the initial stage, then gradually reduce the confidence requirement as the model is becoming more robust. 戦略は、初期段階で最も自信のあるサンプルを選択し、モデルがより堅牢になるにつれて、徐々に信頼性要件を減少させます。 0.72
The initial threshold is 0.9 for the histology lymph node images since it is a balanced dataset, while for the other dataset, we set the initial threshold to 0.8 to avoid neglect of less represented class. 病理組織学的リンパ節像はバランスの取れたデータセットであるため、初期閾値は0.9であり、他のデータセットでは、表現の少ないクラスを無視して0.8に設定する。 0.75
To improve the performance of noisy label detection, we propose to adopt a student-teacher network for better feature learning. ノイズラベル検出の性能を向上させるために,教師と教師のネットワークを機能学習に活用することを提案する。 0.71
Fig 2(b) shows the training scheme of the student-teacher network, which adopts the augmented clean and augmented noisy dataset as input for the student encoder and teacher encoder. 図2(b)は、学生エンコーダと教師エンコーダの入力として、改良されたクリーンおよび拡張ノイズデータセットを採用する学生教師ネットワークのトレーニングスキームを示す。 0.85
The whole network is trained by four losses that will be introduced in the next section. ネットワーク全体が次のセクションで導入される4つの損失によってトレーニングされている。 0.77
The studentteacher network is proposed for semi-supervised learning, while we adopt it in the noisy label learning scenario. セミ教師付き学習には学生教師ネットワークが提案され,ノイズの多いラベル学習シナリオでは採用される。 0.68
As we only update the student network with the selected small loss samples and update the weights of the teacher model by the exponential moving average (EMA) of student network weights. 選択した小損失サンプルを用いて学生ネットワークを更新し、学生ネットワーク重量の指数移動平均(EMA)によって教師モデルの重みを更新する。 0.79
The teacher model is more robust to noisy labels and also can enhance the separation of hard samples and noisy labeled data implicitly. 教師モデルはノイズラベルに対してより堅牢であり、暗黙的にハードサンプルとノイズラベルデータの分離も強化できる。 0.78
Since we observe that the deep learning model always first learns the easy instances and adapts to hard noisy instances, as the separable of clean and noisy data gradually decreased as shown in Fig 3. 深層学習モデルは、図3に示すように、清潔でノイズの多いデータの分離が徐々に減少し、まず簡単なインスタンスを学習し、ハードノイズの多いインスタンスに適応する。 0.69
We design a warm-up stage with five epochs, in which the two networks are updated by all the samples. 5つのエポックを持つウォームアップステージをデザインし、2つのネットワークをすべてのサンプルで更新します。 0.69
5 C. Self-supervised Learning for Noisy Samples 5 c. ノイズサンプルに対する自己教師あり学習 0.51
After the noisy label detection procedure, instead of discarding the noisy labeled sample, we propose to utilize the noisy labeled samples by the self-supervised learning strategy, which can mitigate the requirement for labeled data by providing a means of leveraging unlabeled data. 雑音ラベル検出手順の後、雑音ラベル付きサンプルを破棄する代わりに、自己教師付き学習戦略により雑音ラベル付きサンプルを活用し、ラベル付きデータを活用する手段を提供することによりラベル付きデータの必要性を緩和する。 0.78
Some previous studies generated refined labels for selected noisy labeled samples, which performed well on the heavily corrupted dataset. 以前の研究では、選択されたノイズラベル付きサンプルの洗練されたラベルを生成し、非常に破損したデータセットでうまく動作した。 0.50
However, severe noise is not common in medical image scenarios. しかし、重騒音は医用画像のシナリオでは一般的ではない。 0.63
A refined label would introduce more noise to the training label in the mild noisy situation. 改良されたラベルは、やや騒がしい状況でトレーニングラベルにさらにノイズをもたらすだろう。 0.70
To learn better feature representation, we propose to explicitly regularize the unlabeled data in the feature space. より優れた特徴表現を学習するために,特徴空間内のラベルなしデータを明示的に正規化することを提案する。 0.62
The regularization is designed in two perspectives: the global domain, where we align the persample relation matrix of each batch to preserve the general knowledge of the inter-sample relationships; and the local domain, where we add a contrastive loss to the noisy labeled samples [43] to strength the feature representation learning. 正規化は、各バッチのpersampleリレーションマトリクスを調整して、サンプル間リレーションの一般的な知識を保存するグローバルドメインと、ノイズラベル付きサンプル [43] に対比的損失を追加して特徴表現学習を強化するローカルドメインの2つの観点で設計されている。 0.79
Thus, both the noisy sample and hard samples can contribute to the feature learning. したがって、ノイズの多いサンプルとハードサンプルの両方が特徴学習に寄与する。 0.80
Global inter-sample relationship alignment. グローバルなサンプル間関係のアライメント。 0.62
The relation among samples widely exists in medical imaging. 検体間の関係は医用画像に広く存在する。 0.73
In clinical diagnosis, experienced clinicians tend to make a diagnosis according to the reference from previous analogous cases [44]. 臨床診断では, 臨床医は過去の類似例 [44] を参照して診断を行う傾向がある。 0.76
For each batch of noisy data, the prediction of student network and teacher network should maintain the same relationships. ノイズの多いデータのバッチごとに、学生ネットワークと教師ネットワークの予測は同じ関係を維持する必要がある。 0.72
We calculate an inter-sample relation matrix that can capture the relationships between each sample within a mini-batch. ミニバッチ内で各サンプル間の関係をキャプチャできるサンプル間関係行列を計算する。 0.75
Specifically, for each mini-batch with B samples, we extract the feature before the f c layer of the backbone network, the shape of the feature map in ResNet34 is F ∈ RB×512. 具体的には、Bサンプルを持つ各ミニバッチに対して、バックボーンネットワークのfc層の前に特徴を抽出し、ResNet34における特徴写像の形状は F ∈ RB×512 である。 0.75
The relation matrix is computed as: 関係行列は次のように計算される。 0.59
G = F · F T G = F · F T 0.42
(2) where Gij is the inner product between the vectorized activation map F (2) ここで Gij はベクトル化活性化写像 F の間の内積である 0.51
(i) and F (j), whose intuitive meaning is the similarity between the ith sample and jth sample within the input mini-batch. (i)とF (j)は入力されたミニバッチ内のithサンプルとjthサンプルの類似性である。 0.56
The final sample relation matrix M is obtained by conducting the L2 normalization for each row Gi of G. We then propose a global inter-sample relationship loss Lglobal to align the inter-sample relationship of samples between the teacher model and student model by minimizing their symmetrized Kullback–Leibler (KL) divergence G の各行 Gi に対して L2 正規化を実施して最終サンプル関係行列 M を得る。次に,その対称性を最小化した Kullback-Leibler (KL) 分散を最小化し,教師モデルと学生モデルの間のサンプル間関係を整合させる大域的なサンプル間関係損失 Lglobal を提案する。 0.75
(DKL(M s||M (DKL(M s||M) 0.35
t) + DKL(M t||M t) + DKL(M t||M) 0.78
s)), (3) Lglobal = s)。 (3) Lglobal = 0.44
where DKL(p||q) = (cid:80) ここで dkl(p||q) = (cid:80) 0.52
1 2 i pilog pi qi 1 2 I pilog pi qi 0.41
, M s and M t represent the sample relation matrix M of student network and teacher network respectively. M s と M t はそれぞれ学生ネットワークのサンプル関係行列 M と教師ネットワークを表す。 0.77
This global inter-sample relationship loss is applied to all the samples. このグローバルなサンプル間の関係損失は、すべてのサンプルに適用される。 0.69
Local contrastive loss. ローカルなコントラスト損失。 0.70
In addition to promoting the alignment of feature relationships with Lglobal, we further encourage robust feature representation by adding a local self-supervised contrastive loss following [43], denoted as Llocal. lglobal と特徴関係の整合を促進することに加えて,[43] に続く局所的自己教師付きコントラスト損失を llocal と表記することにより,ロバストな特徴表現を促進する。 0.72
This loss considers the clustering of sample features regardless of the この損失は、サンプル機能のクラスタリングを考慮しています。 0.69
英語(論文から抽出)日本語訳スコア
labelIntuitively, the Llocal learns representations by maximizing agreement between two augmented images of the same data in a latent space. 直感的には、Llocalは、潜在空間内の同じデータの2つの拡張イメージ間の合意を最大化することで表現を学ぶ。
訳抜け防止モード: 直感的には、Llocalは表現を学習する 潜在空間内の同じデータの 2つの拡張画像の一致を最大化する
0.69
Specifically, we replace the f c layer of the backbone network by a projection layer (g(·)) to embed the feature to 128 dimensions (denoted as zi). 具体的には、バックボーンネットワークのfc層をプロジェクション層(g(·))に置き換え、128次元(ziと表記される)にその特徴を埋め込む。 0.71
The projection layer includes one hidden layer and ReLU. 投影層は、1つの隠れ層とreluを含む。 0.68
The local contrastive loss is calculated for each sample in the mini-batch. ミニバッチの各サンプルに対して局所的なコントラスト損失を算出する。 0.70
We augment each image to two images, so that the difference between positive pairs (two augmented images from same source image) can be minimized while the difference from negative pairs (augmented images from different source) is maximized. それぞれの画像を2つの画像に拡大することにより、正対(同一画像からの2つの拡張画像)の違いを最小限に抑えつつ、負対(異なるソースからの増大画像)との差を最大化する。 0.75
Let i ∈ 1.. i ∈ 1 とする。 0.81
.2N be the index of an arbitrary augmented image, and let j(i) be the index of the other augmented image originating from the same source image. .2N を任意の拡張画像のインデックスとし、j(i) を同じソース画像から派生した他の拡張画像のインデックスとする。 0.75
The local contrastive loss is 局所的な対照的な損失は 0.57
2N(cid:88) 2N (cid:88) 0.36
Llocal = Llocal L Local = 地方 0.45
i i=1 私は i=1 である。 0.42
= −log Llocal i =-log 地方 私は 0.47
(cid:80)2N k=1 1i(cid:54)=k · exp(sim(zi, zk)/τ ) (cid:80)2N k=1 1i(cid:54)=k · exp(sim(zi, zk)/τ ) 0.40
exp(sim(zi, zj(i))/τ ) exp(sim(zi, zj(i))/τ ) 0.46
(4) where zi and zj denote the projection of features, τ is a scalar temperature parameter. (4) ziとzjが特徴の投影を表す場合、τはスカラー温度パラメータである。 0.58
We analyze the influence of τ in the i zj/||zi||||zj|| denote the experiment section. 実験区間を表す i zj/||zi|||zj|| における τ の影響を分析する。 0.58
sim(zi, zj) = zT cosine similarity between zi and zj. sim(zi, zj) = ztコサインの類似性 ziとzjの間の類似性。 0.73
D. Overall Loss Functions Given the batches in each iteration, the total loss consists of cross-entropy loss LCE between the observed labels and model predictions for the clean dataset and the unsupervised loss, which includes the original consistency loss Lcon of mean-teacher for both clean and noisy labeled dataset, the local contrastive loss Llocal for noisy labeled data, and global inter-sample relationship alignment loss Lglobal for both clean and noisy labeled data. d. 総損失関数 各イテレーションのバッチが与えられると、総損失は、観測されたラベル間のクロスエントロピー損失lceと、クリーンデータセットとノイズラベル付きデータセットのための平均教師の平均一貫性損失lconと、ノイズラベル付きデータのためのローカルコントラスト損失llocalと、クリーンデータとノイズラベル付きデータの両方に対するグローバルグループ間アライメント損失lglobalとからなる。 0.80
Specifically, the loss function for clean data is the cross entropy loss 具体的には、クリーンデータの損失関数はクロスエントロピー損失である 0.83
LCE = − 1 Nclean LCE = − 1 Nclean 0.43
(cid:88) (cid:88) (cid:88) (cid:88) 0.39
i∈Nclean j∈C I-Nclean j・C 0.33
yj i log f j yj i log f j 0.42
s (xi, θ), s (xi, θ) である。 0.78
(5) (cid:88) (5) (cid:88) 0.41
i∈N where Nclean is the number of clean samples and C is the number of class. いはーん Ncleanはクリーンなサンプルの数で、Cはクラスの数です。 0.56
Also, the original consistency loss is adopted また もともとの一貫性の損失は 0.66
Lcon = 1 N ||fs(xi, θs) − ft(x(cid:48) Lcon = 1N ||fs(xi, θs) − ft(x(cid:48) 0.42
i, θt))||2 2, i, θt))||2 2 である。 0.69
(6) where x and x(cid:48) represent two differently augmented input images, θs and θt are the weights of student model and teacher model, N is the total image number. (6) x と x(cid:48) は2つの異なる拡張された入力画像を表し、θs と θt は学生モデルと教師モデルの重みを表し、N は総画像数である。 0.59
Then the total objective function can be represented as すると、全目的関数を表現できる。 0.71
Ltotal = LCE + λ(Lglobal + Llocal + Lcon), Ltotal = LCE + λ(Lglobal + Llocal + Lcon) 0.39
(7) where λ is the weight of unsupervised loss. (7) ここで λ は教師なし損失の重さです 0.53
Follow the common practice ( [45], [46]), we linearly ramp up λ from 0 to 10 over the first 10 epochs after warm-up procedure. 一般的なプラクティス ([45], [46]) に従い、ウォームアップ手順の後に最初の10エポックでλを0から10に直線的に増加させます。 0.75
More details on the effect of λ and each loss item are shown in the experiments. λと各損失項目の効果に関する詳細は実験で示されている。 0.78
6 E. Implementation details We trained two mean-teacher networks simultaneously with the data selected by their peer network. 6 E.実装の詳細 2つの平均教師ネットワークとピアネットワークから選択したデータを同時に訓練した。 0.59
The exponential moving average decay (EMA) of the mean-teacher network was 0.99 according to [45]. 平均教師ネットワークの指数移動平均減衰(EMA)は[45]により0.99であった。 0.86
The temperature of local loss τ was 0.5, and unsupervised loss weight λ was 10. 局所損失 τ の温度は0.5 であり,教師なし損失重量 λ は 10。 0.81
We adopted the ImageNet pre-trained ResNet34 with randomly initialized fully connected layer as the backbone for the skin lesion, lymph node, and gleason grading datasets, DenseNet121 as the backbone for NIH dataset. 皮膚病変,リンパ節,グリアソングレーティングデータセットのバックボーンとして,ランダムに初期化された完全連結層を持つimagenet resnet34をnihデータセットのバックボーンとして,dancenet121を採用した。 0.69
The network was trained with Adam optimizer, with weight decay as 1e-4, and an initial learning rate of 1e-3. ネットワークはadam optimizerでトレーニングされ、体重は1e-4、初期学習率は1e-3であった。 0.74
We decreased the learning rate after each epoch by 0.9. その結果, 学習率を0.9%低下させた。 0.60
We trained the network using one NVIDIA TITAN Xp GPU and the batch size was set to 64. nvidia titan xp gpuを使ってネットワークをトレーニングし、バッチサイズは64に設定しました。
訳抜け防止モード: NVIDIA TITAN Xp GPUを用いたネットワークのトレーニングを行った。 バッチサイズは64に設定されました
0.78
We adopt random resize and crop with a scale of 0.2 to 1, random rotation, random horizontal flipping as augmentation methods. そこで我々は, 0.2から1のスケールのランダムリサイズと作物を改良法としてランダム回転, ランダム水平反転を採用する。 0.74
IV. EXPERIMENTS To evaluate the effectiveness of our proposed self-ensemble co-training framework for noisy label learning, we have conducted extensive experiments on four challenging medical image diagnosis tasks: IV。 実験 提案する雑音ラベル学習用自己センブルコトレーニングフレームワークの有効性を評価するため,医療画像診断における4つの課題について広範な実験を行った。 0.56
1) melanoma lesion classification from dermoscopy images, 1)皮膚内視鏡像からのメラノーマ病変分類 0.76
2) lymph node classification from the histopathologic images, 2)病理組織像からのリンパ節の分類。 0.78
3) Chest X-ray classification with NLP labeled datasets, and 3)NLPラベル付きデータセットを用いた胸部X線分類 0.78
4) prostate cancer gleason grading using the digital histopathology images. 4)デジタル病理組織像を用いた前立腺癌のグレーティング 0.71
Comparison with a set of current state-of-the-art noisy label training methods and insightful analytical studies will be elaborated in this section. 本項では,現状の雑音ラベル学習法と洞察に富んだ分析研究との比較について述べる。 0.68
A. Dataset and Pre-processing A.データセットと前処理 0.67
The ISIC 2017 skin dataset comes from the melanoma competition held in conjunction with ISBI 2017. ISIC 2017スキンデータセットは、ISBI 2017と共同で開催されるメラノーマコンペティションに由来する。 0.78
This is a binary classification task with malignant and benign class. これは悪性クラスと良性クラスを持つ二分分類タスクである。 0.73
The dataset consists of 2000 melanoma dermoscopy images for training and 600 melanoma dermoscopy images for testing. このデータセットは,訓練用メラノーマ皮膚内視鏡画像2000枚と検査用メラノーマ皮膚内視鏡画像600枚からなる。 0.58
Besides these data, we also downloaded extra 1582 images from the ISIC archive for training. これらのデータに加えて、トレーニングのためにISICアーカイブから1582枚の画像もダウンロードしました。 0.58
We resized all the skin images to the size of 224 × 224 and normalized each image by subtracting ImageNet mean and std. すべての皮膚画像を224×224のサイズにリサイズし,imagenet平均とstdを減算して各画像の正規化を行った。 0.77
The Kaggle histopathologic cancer detection dataset is a slightly modified version of the PatchCamelyon (PCam) [4], [47], which removed the duplicate images. Kaggleの病理組織学的癌検出データセットは、PatchCamelyon (PCam) [4], [47]のわずかに修正されたバージョンで、重複画像を取り除いた。 0.81
It packs the clinically relevant task of metastasis detection into a straightforward binary image classification task into malignant and benign. 転移検出の臨床的に関係のあるタスクを、単純なバイナリ画像分類タスクにまとめ、悪性と良性に分類する。 0.59
A positive label indicates that the center 32 × 32 region of a patch contains at least one pixel of tumor tissue. 正のラベルは、パッチの中心32×32領域が少なくとも1つの腫瘍組織の画素を含むことを示す。 0.76
Tumor tissue in the outer region of the patch does not influence the label. パッチの外側の腫瘍組織はラベルに影響を与えない。 0.61
The dataset contains 220025 images for training, 57460 images for online testing. データセットにはトレーニング用の220025イメージ、オンラインテスト用の57460イメージが含まれている。 0.52
Without loss of generality, we randomly selected 6200 and 800 images from the training images as our training data and test data, respectively. 一般性を失うことなく,トレーニングデータとテストデータとして,トレーニング画像からランダムに6200と800の画像を選択した。 0.79
We resized all the images to the size of 224 × 224, and normalized by subtracting ImageNet mean and std. すべての画像を224×224のサイズにリサイズし、imagenet平均とstdを減算することで正規化しました。 0.76
Besides the two datasets mentioned above, we also tested our method on two applications with real noise. 以上の2つのデータセットに加えて,本手法を実雑音のある2つのアプリケーション上でテストした。 0.66
The first dataset is the NIH chest X-ray dataset [48], which contains 最初のデータセットは nih chest x-ray dataset [48] で、これには 0.78
英語(論文から抽出)日本語訳スコア
TABLE I: Comparison of classification results with state-of-the-art methods on lymph node data (Accuracy, %). 表 i: リンパ節データにおける分類結果と最先端法の比較 (精度, %)。 0.75
7 Noise ratio 0 0.05 0.1 0.2 0.4 7 騒音比 0 0.05 0.1 0.2 0.4 0.34
Cross entropy 93.44 ± 0.41 91.28 ± 0.57 88.95 ± 0.31 82.67 ± 0.49 63.41 ± 0.63 Cross entropy 93.44 ± 0.41 91.28 ± 0.57 88.95 ± 0.31 82.67 ± 0.49 63.41 ± 0.63 0.28
F-correction (2017) Mentornet (2018) 93.09 ± 0.21 92.65 ± 0.32 91.05 ± 0.27 85.66 ± 0.27 69.43 ± 0.47 F-correction (2017) Mentornet (2018) 93.09 ± 0.21 92.65 ± 0.32 91.05 ± 0.27 85.66 ± 0.27 69.43 ± 0.47 0.31
94.22 ± 0.19 92.60 ± 0.35 90.54 ± 0.18 83.24 ± 0.26 64.10 ± 0.37 94.22 ± 0.19 92.60 ± 0.35 90.54 ± 0.18 83.24 ± 0.26 64.10 ± 0.37 0.26
Decoupling (2017) デカップリング(2017年) 0.38
93.03 ± 0.35 91.73 ± 0.47 89.74 ± 0.43 82.85 ± 0.38 64.13 ± 0.24 93.03 ± 0.35 91.73 ± 0.47 89.74 ± 0.43 82.85 ± 0.38 64.13 ± 0.24 0.26
Co-teaching (2018) 93.25 ± 0.28 92.88 ± 0.36 91.39 ± 0.48 86.05 ± 0.17 76.03 ± 0.18 共学(2018年) 93.25 ± 0.28 92.88 ± 0.36 91.39 ± 0.48 86.05 ± 0.17 76.03 ± 0.18 0.32
ELR (2020) 93.27 ± 0.20 92.69 ± 0.33 90.84 ± 0.24 87.12 ± 0.28 73.86 ± 0.17 ELR (2020) 93.27 ± 0.20 92.69 ± 0.33 90.84 ± 0.24 87.12 ± 0.28 73.86 ± 0.17 0.29
Ours 94.31 ± 0.14 93.88 ± 0.35 92.75 ± 0.30 90.88 ± 0.20 79.00 ± 0.34 我々の 94.31 ± 0.14 93.88 ± 0.35 92.75 ± 0.30 90.88 ± 0.20 79.00 ± 0.34 0.43
TABLE II: Comparison of classification results with state-of-the-art methods on ISIC melanoma data (Accuracy, %). TABLE II:ISICメラノーマデータ(精度, %)の分類結果と最先端手法の比較検討を行った。 0.76
Noise ratio 0 0.05 0.1 0.2 0.4 騒音比 0 0.05 0.1 0.2 0.4 0.32
Cross entropy 85.50 ± 0.28 84.25 ± 0.66 83.01 ± 0.37 81.36 ± 0.61 69.65 ± 0.65 Cross entropy 85.50 ± 0.28 84.25 ± 0.66 83.01 ± 0.37 81.36 ± 0.61 69.65 ± 0.65 0.28
F-correction (2017) Mentornet (2018) 85.09 ± 0.21 83.47 ± 0.27 83.83 ± 0.37 82.15 ± 0.49 70.40 ± 0.33 F-correction (2017) Mentornet (2018) 85.09 ± 0.21 83.47 ± 0.27 83.83 ± 0.37 82.15 ± 0.49 70.40 ± 0.33 0.31
85.63 ± 0.14 84.32 ± 0.39 83.82 ± 0.46 82.88 ± 0.61 68.60 ± 0.50 85.63 ± 0.14 84.32 ± 0.39 83.82 ± 0.46 82.88 ± 0.61 68.60 ± 0.50 0.26
Decoupling (2017) デカップリング(2017年) 0.38
84.98 ± 0.14 83.39 ± 0.22 83.13 ± 0.44 81.64 ± 0.53 68.63 ± 0.47 84.98 ± 0.14 83.39 ± 0.22 83.13 ± 0.44 81.64 ± 0.53 68.63 ± 0.47 0.26
Co-teaching (2018) 85.59 ± 0.27 83.98 ± 0.45 83.39 ± 0.50 83.22 ± 0.21 74.78 ± 0.44 共学(2018年) 85.59 ± 0.27 83.98 ± 0.45 83.39 ± 0.50 83.22 ± 0.21 74.78 ± 0.44 0.32
ELR (2020) 85.51 ± 0.21 84.28 ± 0.23 83.18 ± 0.35 83.37 ± 0.48 72.98 ± 0.26 ELR (2020) 85.51 ± 0.21 84.28 ± 0.23 83.18 ± 0.35 83.37 ± 0.48 72.98 ± 0.26 0.29
Ours 86.00 ± 0.12 85.40 ± 0.22 84.33 ± 0.31 84.17 ± 0.32 76.67 ± 0.14 我々の 86.00 ± 0.12 85.40 ± 0.22 84.33 ± 0.31 84.17 ± 0.32 76.67 ± 0.14 0.43
112,120 frontal-view CXR images from 32,717 patients. 32,717人のフロントビューcxr画像112,120 0.57
Each image is labeled with 14 possible pathological findings that are automatically mined from the text reports. 各画像には、テキストレポートから自動的に抽出される14の病理所見がラベル付けされている。 0.58
We used 1,962 manual labeled images [49] as clean testing data. クリーンなテストデータとして1,962個の手動ラベル付き画像 [49] を使用した。 0.60
We resized all the skin images to the size of 224 × 224 and normalized each image by subtracting ImageNet mean and std. すべての皮膚画像を224×224のサイズにリサイズし,imagenet平均とstdを減算して各画像の正規化を行った。 0.77
The second dataset is the Gleason 2019 dataset that contains 333 tissue microarray (TMA) images of prostate cancer, which are sampled from 231 radical prostatectomy patients. 第2のデータセットはGleason 2019データセットで、前立腺がんの組織マイクロアレイ(TMA)画像が333枚含まれており、231人の根治的前立腺切除術患者のサンプルである。 0.66
All the images are annotated in detail by six pathologists for different gleason grades. これらの画像は6人の病理学者によって詳細に注釈付けされている。 0.47
The task is to classify the score into benign (0) and cancerous (1,2,3,4,5). 課題はスコアを良性 (0) と癌 (1,2,3,4,5) に分類することである。 0.62
The data collection and labeling have been introduced in [50]. データ収集とラベル付けは[50]に導入されています。 0.76
This dataset is annotated by six pathologists with different experience levels, hence it contains images with high inter-observer variability. このデータセットは、異なる経験レベルを持つ6人の病理学者によってアノテートされている。 0.62
We resized the image to the size of 224 × 224 and normalized each image by subtracting ImageNet mean and std. 画像サイズを224×224にリサイズし,imagenet平均とstdを減算して各画像の正規化を行った。 0.77
B. Experimental Settings Random noise. B. ランダムノイズの実験的設定 0.86
We first evaluated our method on two synthetic noisy label datasets. 提案手法を2つの合成ノイズラベルデータセットで評価した。 0.64
To simulate the noisy label situations on our employed melanoma dataset and lymph node dataset, we randomly sampled γ ∈ {0.05, 0.1, 0.2, 0.4} percentage of images from each class and flip the labels of these images following the common setting. 使用したメラノーマデータセットとリンパ節データセットのノイズラベル状況をシミュレートするために,各クラスからγ ∈ {0.05, 0.1, 0.2, 0.4} の割合をランダムにサンプリングし,これらの画像のラベルを共通の設定に従ってフリップした。 0.71
In this way, we can obtain a noisy training dataset with a certain amount of images having incorrect labels. このようにして、不正確なラベルを持つ画像の一定量のノイズトレーニングデータセットを得ることができる。 0.68
The noisy label is defined as y(cid:48) i = yi with the probability of 1 − γ, and y(cid:48) i = yk, yk (cid:54)= yi with the probability of γ, where y(cid:48) i is the corrupted noisy label, yi is clean label. 雑音ラベルは 1 − γ の確率で y(cid:48) i = yi と定義され、y(cid:48) i = yk, yk (cid:54)= yi は γ の確率で定義される。
訳抜け防止モード: 雑音ラベルは 1 − γ の確率で y(cid:48 ) i = yi と定義される。 そして y(cid:48 ) i = yk, yk (cid:54) = yi の確率は γ である。 y(cid:48 ) iは破損したノイズラベルです Yiはクリーンなラベルだ
0.84
We adopted the accuracy as evaluation metric. 我々はその精度を評価基準として採用した。 0.51
Computer-generated noisy label. コンピュータ生成ノイズラベル。 0.69
We trained our method on the NIH Chest X-ray dataset to simulate the reality and then further tested our trained model on a manually relabeled chest X-ray dataset to evaluate the effectiveness of our method. 提案手法をnih胸部x線データセットに組み込んで現実をシミュレーションし,さらに手作業による胸部x線データセット上でのトレーニングモデルをテストし,提案手法の有効性を評価した。 0.78
This dataset has four labels: pneumothorax, opacity, nodule or mass, and fracture. このデータセットには、気胸、不透明、結節または腫瘤、骨折の4つのラベルがある。 0.56
Only pneumothorax, nodule or mass are labeled in the NIH dataset. ニューモトラクス、結節または質量のみがNIHデータセットにラベル付けされる。 0.61
To be consistent with the annotations used in the paper, we averaged the outputs of Mass and Nodule to be the prediction of Mass or Nodule. 論文で使用されるアノテーションと整合性を保つため,MassおよびNoduleの出力をMassまたはNoduleの予測値として評価した。 0.76
Inter-observer variability. オブザーバ間の可変性。 0.43
The Gleason 2012 challenge dataset is labeled by six pathologists with an inter-observer Cohen’s kappa coefficient between 0.4 and 0.6 (0.0 indicates gleason 2012 challengeデータセットは、6人の病理学者によってラベル付けされ、observer cohenのkappa係数は0.4から0.6である(0.0が示す)。 0.53
Fig. 4: The Gleason grading from different pathologists for one sample histological image. 図4:Gleasonは、異なる病理学者から1つのサンプル組織像に分類される。 0.69
chance agreement and 1.0 means perfect agreement) [50], [51], as shown in Fig 4. チャンス合意と1.0は完全合意を意味する) [50], [51] 図4に示すとおり、 0.74
Following [51], [52], we applied the Simultaneous Truth and Performance Level Estimation (STAPLE) algorithm [53], which is based on the expectationmaximizat ion method to estimate the ground-truth labels from the annotations of six radiologists. そして, [51], [52] に続いて, 期待最大化法に基づく同時真理・性能レベル推定 (staple) アルゴリズム [53] を適用し, 6人の放射線科医の注釈から地中ラベルを推定した。 0.81
We utilized the STAPLE estimated labels as clean labels, and the label of one of the six pathologists as the noisy labels. STAPLE推定ラベルをクリーンラベルとし,6名の病理医の1名をノイズラベルとした。 0.55
We used a patch size of 750 × 750, and the grading of the center 250 × 250 region as the label. パッチサイズは750×750で,中央250×250領域をラベルとして評価した。 0.60
For the experiment, we used 80% data for training and the rest for testing. 実験では、トレーニングに80%のデータ、テストに残りのデータを使用しました。 0.73
C. Comparison with state-of-the-art methods C.最先端手法との比較 0.64
To show the effectiveness of our method, we conducted a comparison with the state-of-the-art noisy label learning methods. 提案手法の有効性を示すため,最先端の雑音ラベル学習法との比較を行った。 0.72
The compared methods include: 比較方法は以下のとおりである。 0.49
• Co-teaching [16]: They adopted a two network learning strategy and select the small loss sample for the training of the peer network. • 共同学習 [16]: 2つのネットワーク学習戦略を採用し、ピアネットワークのトレーニングに小さな損失サンプルを選択しました。 0.87
• Decoupling [42]: They used a two network setting, and update the two networks based on the disagreement of each network. • Decoupling [42]: 2つのネットワーク設定を使用し、各ネットワークの不一致に基づいて2つのネットワークを更新する。 0.88
• F-correction [13]: They corrected the prediction by a noise transition matrix. •f補正 [13]:ノイズ遷移行列による予測を補正した。 0.79
As suggested by the authors, we first trained a standard network to estimate the transition matrix. 著者らが示唆するように、我々はまず、遷移行列を推定する標準ネットワークを訓練した。 0.59
• MentorNet [15]: They used a group of clean data to weight each training data. • MentorNet [15]: トレーニングデータの重み付けにクリーンなデータのグループを使用しました。 0.80
We used self-paced MentorNet in this paper as we don’t have the extra clean data. この論文では、余分なクリーンなデータを持っていないので、セルフペースのMentorNetを使用しました。 0.52
Grade5Grade4Grade3Gr ade1 グレード5グレード4グレード3グレード1 0.14
英語(論文から抽出)日本語訳スコア
TABLE III: Results on the NIH dataset (AUC). TABLE III: NIHデータセット(AUC)の結果。 0.72
Method Cross entropy F-correction Mentornet Decoupling Co-teaching 方法 クロスエントロピーF補正メンターネットデカップリング協調学習 0.49
ELR Ours Pneumothorax 0.870 0.808 0.866 0.801 0.873 0.871 0.891 我々の 気胸 0.870 0.808 0.866 0.801 0.873 0.871 0.891 0.38
Nodule or Mass Nodule (複数形 Nodules) 0.40
0.843 0.848 0.837 0.843 0.820 0.832 0.846 0.843 0.848 0.837 0.843 0.820 0.832 0.846 0.21
TABLE IV: Results on the Gleason 2019 challenge dataset (Accuracy, %) TABLE IV: Gleason 2019 Challengeデータセットの結果(正確性、%) 0.84
8 Cross entropy F-correction Mentornet Decoupling Co-teaching 8 クロスエントロピーF補正メンターネットデカップリング協調学習 0.52
ELR Ours A 78.52 76.75 79.80 80.66 79.58 80.37 81.76 我々の A 78.52 76.75 79.80 80.66 79.58 80.37 81.76 0.36
B 66.47 68.92 68.21 69.63 71.93 70.27 75.47 B 66.47 68.92 68.21 69.63 71.93 70.27 75.47 0.32
• ELR [28]: They leveraged semi-supervised learning techniques and regularization term to prevent memorization of false labels. • ELR [28]: 半教師付き学習手法と正規化項を活用し, 偽ラベルの暗記を防止する。 0.74
We evaluated the classification performance of these methods and our method by calculating their average classification accuracy or area under curve (AUC). 我々は,これらの手法の分類性能を,平均分類精度または曲線下面積(AUC)を算出して評価した。 0.83
The results are listed in Table I, Table II, Table III, and Table IV for the four datasets with three noise types. 結果は、ノイズタイプが3つある4つのデータセットのテーブルi、テーブルii、テーブルiii、テーブルivにリストされる。 0.74
For fair comparisons, we obtained the classification results of the comparison methods by downloading their public implementations or reimplementing the method according to their paper. 公平な比較のために,公開実装をダウンロードしたり,その方法を再実装したりすることで,比較手法の分類結果を得た。 0.81
Similarly, the ResNet34 was employed as the network backbone for the ISIC skin cancer data, kaggle lymph node data, and the Gleason 2019 data. 同様に、ResNet34はISIC皮膚がんデータ、カグルリンパ節データ、Gleason 2019データのためのネットワークバックボーンとして使用された。
訳抜け防止モード: 同様に、ResNet34はISIC皮膚がんデータのネットワークバックボーンとして使用された。 kaggle lymph node data, and the Gleason 2019 data。
0.81
The Densenet121 was the backbone for the NIH chest Xray data. Densenet121はNIH胸部X線データのバックボーンである。 0.72
Same hyper-parameters (learning rate, weight decay, optimizer) for training were adopted. トレーニングには, 同じハイパーパラメータ(学習率, 体重減少, 最適化器)が採用された。 0.66
We applied the same strategy as [16] to report the evaluation metrics of the last ten epochs and report the results averaged over three runs. 我々は,[16]と同じ戦略を用いて,過去10回の評価指標を報告し,その結果を3回平均して報告した。 0.82
Results on histopathologic lymph node dataset. 病理組織学的リンパ節データの検討 0.61
Table I shows the results of our method and other competitors on the lymph node classification task. 表1はリンパ節分類タスクにおける本手法と他の競合他社の結果を示す。 0.71
For the clean dataset (i.e., noise ratio=0), only F-correction and our method obtained better results than the cross entropy loss. クリーンデータセット(ノイズ比=0)では,F補正と手法のみがクロスエントロピー損失よりも優れた結果を得た。 0.74
This phenomenon shows the drawback of the sample selection-based training strategy, where the hard samples are treated as the noisy label and removed. この現象は, 硬質試料をノイズラベルとして処理し除去する, サンプル選択に基づくトレーニング戦略の欠点を示す。 0.82
For all the noise ratio settings, decoupling obtained less improvement over cross entropy loss, indicating that even with two network settings, the training strategy that updates the network according to disagreements may not work well in the medical image domain. 全てのノイズ比設定において、デカップリングはクロスエントロピー損失よりも改善され、二つのネットワーク設定であっても、不一致に応じてネットワークを更新するトレーニング戦略は医療画像領域ではうまく機能しない可能性がある。 0.70
For the noisy label dataset (noise ratio > 0), Both Co-teaching and our method outperformed other methods by a large margin, indicating that the sample selection bias is efficiently alleviated by the two-network cotraining scheme. ノイズラベルデータセット(ノイズ比 > 0)では,コティーチング法と我々の手法の両方が他の手法よりも大きなマージンで優れており,サンプル選択バイアスは2つのネットワークコトレイン方式により効率的に緩和されていることを示す。 0.74
Furthermore, our method outperformed Coteaching in all the noise settings, showing that by adding the noisy label detection and two unsupervised loss can learn more robust feature representation. さらに,ノイズ設定におけるCoteachingよりも優れており,ノイズラベル検出と2つの教師なし損失を加えることで,より堅牢な特徴表現を学習できることが示されている。 0.65
Our method also achieved better results than ELR, showing that the two unsupervised losses can reduce the effects of the noisy label. また,2つの教師なし損失がノイズラベルの効果を低減できることを示すため,ELRよりも優れた結果を得た。 0.69
For the small noise ratio setting, the overfitting to noisy label is not as severe as the heavily corrupted dataset, but all the methods achieved better results than training with cross entropy, and our method has the best results. ノイズ比の小さな設定では、ノイズラベルへの過度適合は、重く破損したデータセットほど重くはないが、すべての手法がクロスエントロピーによるトレーニングよりも優れた結果を得ることができ、本手法は最良の結果が得られる。 0.67
Results on ISIC melanoma dataset. ISICメラノーマデータセットの結果 0.65
Note that the skin lesion classification data is more challenging than the lymph node classification task, as the data is very imbalanced and contains more hard samples. 皮膚病変分類データは、非常に不均衡であり、より硬いサンプルを含んでいるため、リンパ節分類タスクよりも難しいことに注意されたい。 0.71
From Table II, it is observed that 表IIから、そのことが観察される。 0.68
when there is no noise in the training data, Decoupling and Mentornet obtained lower accuracy than cross entropy loss, which is reasonable as Decoupling only utilized partial data for training and Mentornet possibly assigned smaller weight for hard samples. トレーニングデータにノイズがない場合、デカップリングとメンターネットはクロスエントロピー損失よりも低い精度を得た。
訳抜け防止モード: トレーニングデータにノイズがない場合、デカップリングとメンターネットはクロスエントロピー損失よりも低い精度を得た。 Decouplingはトレーニングに部分データのみを使用し、Mentornetはハードサンプルにより小さな重量を割り当てている。
0.76
Those filtered or down-weighted samples are crucial for discriminative feature learning. フィルタリングまたはダウンウェイトのサンプルは、識別的特徴学習に不可欠である。 0.58
In 0.05 noise ratio setting, Co-teaching does not perform well in the mild case due to the low sample utilization rate and wrong identification of hard samples; while self-paced Mentornet did not perform well due to the sample selection bias by single network setting and the down-weighted hard samples. 0.05ノイズ比設定では,単一のネットワーク設定によるサンプル選択バイアスとダウンウェイトのハードサンプルにより,自己ペースメンターネットは良好に動作しなかったが,低サンプル利用率とハードサンプルの誤同定のため,マイドケースではコティーチングは良好に動作しなかった。 0.84
F-correction obtained marginal improvement on accuracy when the noise ratio is small, but the performance dropped dramatically when the noise ratio reached 0.4, as the transition matrix estimation is not robust in this setting. F補正はノイズ比が小さい場合の精度において限界改善を得たが、遷移行列推定が堅牢でないため、ノイズ比が0.4に達すると性能が劇的に低下した。
訳抜け防止モード: F - ノイズ比が小さい場合の精度の限界改善を得た補正。 しかし ノイズ比0.4で 劇的に低下し この設定では 遷移行列の推定は堅牢ではありません
0.79
Compared with our methods, the Co-teaching entirely removed the selected noisy label which would result in a worse classification performance due to the missing of hard samples. 提案手法と比較すると, 抽出した雑音ラベルを完全に除去し, ハードサンプルの欠如による分類性能の低下を招いた。 0.77
Results demonstrate that our method can effectively work on the challenging imbalanced dataset, as the co-training scheme with noisy label filter can filter out the noisy labels and the two self-supervised losses maintain an effective utilization of hard samples (minority group). その結果,ノイズラベルフィルタを用いた協調学習手法はノイズラベルをフィルタし,自己監督的損失がハードサンプル(マイノリティグループ)の有効利用を維持するため,本手法は困難で不均衡なデータセットを効果的に処理できることが示唆された。 0.71
Results on public CXR datasets. 公開cxrデータセットの結果。 0.73
Manual annotation of large-scale datasets is time-consuming and expensive, some public datasets are often extracted by NLP from radiological reports, which inevitably results in a certain level of label noise. 大規模なデータセットのマニュアルアノテーションは時間と費用がかかるが、いくつかの公開データセットはしばしばNLPによって放射線学的レポートから抽出される。 0.78
Wang et al [48] reported the text mining accuracy of NIH Chest X-ray dataset on 900 manual labeled images, which shows that the precision and recall for Nodule and Pneumonia is below 90%. Wang et al [48]は、900個の手動ラベル付き画像上にNIH Chest X-rayデータセットのテキストマイニング精度を報告し、NoduleとPneumoniaの精度とリコールが90%未満であることを示した。 0.75
Recently, Majkowska et al [49] have relabeled a subset (1,962 images) of NIH testing data with at least three radiologists per image. 最近、Majokowskaら[49]は、NIHテストデータのサブセット(1,962画像)を、少なくとも3つの放射線学者で再現した。 0.62
We trained our model on the NIH datasets with NLP extracted label and tested on this relabeled data. 我々は、NLP抽出ラベルを用いてNIHデータセット上でモデルをトレーニングし、このデータをテストした。 0.65
Table III shows the AUC values of our method and other comparison methods. 表IIIは,本手法と他の比較手法のAUC値を示す。 0.79
Some of the comparison methods performed worse than the baseline, either for Pneumothorax or Nodule/Mass, we attribute this to the small noise proportion and unbalanced sample distribution of the 14 diseases, which makes the transition matrix estimation and sample selection challenging. 気胸例と結節/腫瘤例のいずれにおいても, 基準値よりも成績の悪い方法のいくつかは, 14疾患の低騒音率と非平衡サンプル分布を特徴とし, 遷移行列の推定とサンプル選択を困難にしている。 0.79
As our method integrated the noisy sample selection method and self-supervised learning strategy, it still outperformed the baseline and other methods. 提案手法は,ノイズの多いサンプル選択手法と自己教師付き学習戦略を統合し,ベースラインや他の手法よりも優れていた。 0.71
Overall, this experiment demonstrates the robustness of the proposed method to label noise in the real clinical setting. 本実験は, 実際の臨床環境におけるノイズをラベル付けする手法の堅牢性を示すものである。 0.75
Results on public Gleason grading datasets. 公開gleason gradingデータセットの結果。 0.76
To evaluate our method on noisy data, we consider the grading by one patholo- 雑音データに基づく手法を評価するために,1つのパノロによる階調の検討- 0.58
英語(論文から抽出)日本語訳スコア
9 Fig. 5: (a) The performance of our method under different unsupervised loss weights on the histopathologic dataset. 9 第5図 a) 病理組織学的データセットにおける異なる教師なし損失重み下での手法の性能について検討した。 0.49
; (b) The AUC value of selected clean training samples under different noise setting, compared between ours and one network setting without Lglobal and Llocal on the lymph node dataset. ; b) Lglobal と Llocal を伴わない1つのネットワーク設定と比較し, 異なる雑音条件下で選択したクリーントレーニングサンプルのAUC値について検討した。 0.58
; (c) The change of global inter-sample relationship during network training under different scenarios. ; c)異なるシナリオにおけるネットワークトレーニングにおけるグローバルサンプル間関係の変化。 0.66
TABLE V: Ablation study on skin lesion and lymph node (Accuracy, %) 表 v: 皮膚病変とリンパ節のアブレーション研究(精度, %) 0.79
Co-training+NLF(cid:88) (cid:88) (cid:88) (cid:88) (cid:88) Co-training+NLF(cid:88) (cid:88) (cid:88) (cid:88) (cid:88) 0.32
Self-ensemble(cid:88 ) (cid:88) (cid:88) (cid:88) 自己アンサンブル(cid:88) (cid:88) (cid:88) (cid:88) 0.32
Lglobal(cid:88)(cid: 88) Lglobal(cid:88)(cid: 88) 0.39
Llocal(cid:88) (cid:88) llocal(cid:88)(cid:8 8) 0.38
0.05 91.28 91.65 91.92 93.02 92.90 93.88 0.05 91.28 91.65 91.92 93.02 92.90 93.88 0.21
lymph node 0.1 0.2 82.67 88.95 84.00 89.33 86.12 90.03 88.62 91,93 91.94 88.50 90.88 92.75 lymph node 0.1 0.2 82.67 88.95 84.00 89.33 86.12 90.03 88.62 91,93 91.94 88.50 90.88 92.75 0.22
0.4 63.41 68.25 71.11 77.92 77.75 79.00 0.4 63.41 68.25 71.11 77.92 77.75 79.00 0.21
0.05 84.25 84.37 84.66 85.22 85.07 85.40 0.05 84.25 84.37 84.66 85.22 85.07 85.40 0.21
skin lesion 0.2 81.36 82.53 82.79 83.83 83.27 84.17 皮膚病変 0.2 81.36 82.53 82.79 83.83 83.27 84.17 0.23
0.1 83.01 83.49 83.71 84.18 84.02 84.33 0.1 83.01 83.49 83.71 84.18 84.02 84.33 0.21
0.4 69.65 73.49 74.26 75.20 75.04 76.67 0.4 69.65 73.49 74.26 75.20 75.04 76.67 0.21
TABLE VI: The influence of temperature scale in contrastive loss (Accuracy, %). 表 vi: 比較損失における温度スケールの影響 (正確性, %)。 0.77
τ Skin lesion Lymph node τ 皮膚病変リンパ節 0.55
0.01 84.50 91.88 0.01 84.50 91.88 0.24
0.1 84.17 91.25 0.1 84.17 91.25 0.24
0.5 84.33 92.75 0.5 84.33 92.75 0.24
1 85.17 92.25 1 85.17 92.25 0.34
gist as the noisy label and the label estimated by STAPLE from six pathologists as the clean label. gistはノイズラベルであり、stapleは6人の病理学者からクリーンラベルと推定されている。 0.59
We conducted two groups of studies, A: all the training data and testing data are clean, B: we use the labels from one of the six pathologists as training data (noisy) and the testing data is clean. a: すべてのトレーニングデータとテストデータはクリーンで、b: 6人の病理学者のラベルをトレーニングデータ(noisy)として使用し、テストデータはクリーンです。
訳抜け防止モード: 我々は2つの研究グループ、A : を行った。 トレーニングデータとテストデータはすべてクリーンです B:6人の病理医のラベルをトレーニングデータ(ノイズ)として使用する。 テストデータはクリーンです
0.73
The results are shown in Table IV. 結果は表4に示されています。 0.67
The comparison of A and B shows that interobserver variability can cause a performance drop in medical image classification. aとbの比較は、オブザーバ間の変動が医療画像の分類のパフォーマンス低下を引き起こすことを示している。
訳抜け防止モード: AとBの比較は、 インターオブザーバの変動は 医療画像の分類に 性能低下を引き起こす
0.72
All the methods show improvements over the baseline except F-correction. 全ての手法はF補正を除いてベースラインよりも改善されている。 0.58
Our method shows the best results among all the comparison methods. 提案手法は,すべての比較手法の最良の結果を示す。 0.75
D. Ablation Analysis Efficiency of key components. D. キーコンポーネントのアブレーション解析効率 0.81
To demonstrate the effectiveness of our proposed method, we conducted the ablation study using both the histopathologic cancer detection dataset and ISIC skin dataset. 提案法の有効性を示すため,病理組織学的癌検出データセットとisic皮膚データセットを用いてアブレーションを行った。 0.74
The results for each setting is shown in Table V. Our baseline is the ResNet34 trained by cross entropy loss and the result is provided in the first row of Table V. We mainly analyzed the efficiency of four components: co-training with noisy label filter, self-ensemble, global inter-sample relationship alignment loss, and the local contrastive loss. 本研究のベースラインはクロスエントロピー損失によりトレーニングされたresnet34であり,その結果はテーブルvの第1行に提供され,ノイズラベルフィルタによるコトレーニング,セルフセンス,グローバル・サンプル間のアライメント損失,局所的なコントラスト損失の4つのコンポーネントの効率を主に分析した。 0.75
From the ablation study, we observed that each component plays its own role in a complementary way. アブレーション研究から,各成分が相補的な役割を担っていることを観察した。 0.73
Specifically, the cotraining with a noisy label filter scheme improves the accuracy 具体的には、ノイズラベルフィルタ方式によるコトレーニングにより精度が向上する。 0.59
by around 1%-4.7% compared to the baseline. 基準値の約1%-4.7%の値です 0.71
It shows that the two networks cross updated by selected samples yield improvement over the baseline by reducing the domination of noisy labels and alleviating the sample selection bias. その結果, 2つのネットワークは, ノイズラベルの優位性を低減し, サンプル選択バイアスを緩和することにより, ベースラインを改良した。 0.72
Then we evaluated the efficiency of the self-ensemble setting. そして, 自己センブル設定の効率評価を行った。 0.74
By using the self-ensemble model (mean teacher network), the accuracy improved 1.6% − 7.5% since the teacher network is a more robust moving average model of the student network. 自己センブルモデル(教師ネットワーク)を用いることで、教師ネットワークは学生ネットワークのより堅牢な移動平均モデルであるため、精度は1.6%~7.5%向上した。 0.83
Hence, it is effective to adopt the self-ensemble model to select samples. したがって, 自己感覚モデルを用いてサンプルを選択することは効果的である。 0.71
Lastly, we evaluated the effectiveness of the two proposed self-supervised losses. 最後に,提案する2つの自己監督損失の有効性を評価した。 0.56
As shown in line 4 and line 5 of Table V, only using the global inter-sample relationship alignment loss lglobal and the local contrastive loss Llocal achieved 1.7%−14.5% improvement on accuracy, indicates the effectiveness of these two losses. 表Vの4行目と5行目で示されるように、大域的相互関係アライメント損失lglobalと局所的コントラスト損失Llocalのみを用いて、精度が1.7%−14.5%向上した。 0.76
Our model utilized the two losses achieved the best performance and the final accuracy is 2.6% − 15.6% higher than the baseline. 我々のモデルは2つの損失を最高の性能に利用し、最終的な精度はベースラインよりも2.6%~15.6%高かった。 0.64
It indicates that the representation learning capability of the network has been improved by training the network with global loss and local loss on the detected noisy labeled data. ネットワークの表現学習能力は, 検出された雑音ラベルデータに対する大域的損失と局所的損失を伴うネットワークの訓練により向上したことを示す。 0.84
Different temperatures of contrastive loss. コントラスト損失の温度が異なる。 0.76
We analyzed how the temperature hyperparameter in the local contrastive loss influences the network performance. 局所コントラスト損失における温度ハイパーパラメータがネットワーク性能に与える影響を解析した。 0.81
We ranged t ∈ [0.05, 0.1, 0.5, 1] for both datasets under the 10% noise ratio setting. 10%雑音比設定の下で, t ∈ [0.05, 0.1, 0.5, 1] の範囲を調べた。 0.62
As shown in Table VI, the classification accuracy generally improves the performance over the baseline (83.01% for skin and 88.95% for lymph node) while not being very sensitive to the value of t. 表6に示すように、分類精度は一般的にベースライン(皮膚では83.01%、リンパ節では88.95%)よりも性能を向上するが、tの値には敏感ではない。 0.65
Different weights of self-supervised loss. 自己教師付き損失の異なる重み付け。 0.52
We also varied the trade-off weight of the self-supervised loss and analyzed its sensitivity to the hyperparameter of λ in Eq (7). また,自己教師付き損失のトレードオフ重量を変化させ,eq(7)におけるλのハイパーパラメータに対する感度を解析した。 0.69
Specifically, (a)(c) 具体的には (a)(c) 0.50
(b) (b) 0.43
英語(論文から抽出)日本語訳スコア
(a) (b) Fig. 6: The variation of filtered labeled data number. (a) (b) 第6図:フィルタ付きラベル付きデータ番号のバリエーション。 0.55
(20 % and 40% noisy lymph node data) (20%と40%のノイズ性リンパ節データ) 0.81
we ranged λ ∈ [0, 1, 10, 20] and observed the classification results on the histopathologic dataset. λ ∈ [0, 1, 10, 20] の範囲で組織学的データセットの分類結果を観察した。 0.77
In Fig 5 (a), the bar-plots presents the mean of classification accuracy under all noise settings. 図5では (a)バープロットは、すべてのノイズ設定における分類精度の平均を示す。 0.82
We observed that our method generally improves the classification performance when λ < 10, while a larger weight of the self-supervision will overwhelm the supervised one and lead to underfitting. 本手法は, λ < 10 の場合, 分類性能が向上するのに対し, 自己スーパービジョンの重みが大きいと, スーパービジョンの重みが過小評価される。 0.64
Noisy label detection. ノイズのラベル検出。 0.71
We first show the training loss distribution obtained by pure cross entropy loss and our methods at 10 epoch in Fig 7. 第1報では, 純クロスエントロピー損失によるトレーニング損失分布と手法を第7図の10エポックに示す。 0.78
The training loss is easier to be divided into clean and noisy groups with our method, which is important for the noise label detection procedure. 本手法は, ノイズラベル検出法において重要であり, トレーニング損失をクリーンなグループとノイズの多いグループに分けるのが容易である。 0.77
In Fig 5 (b), we also plot the AUC value of the filtered clean samples at the last epoch. 図5では (b) 前回期における濾過洗浄試料のAUC値もプロットした。 0.72
Our method can consistently select high-quality samples with a higher AUC value compared to using one network to select samples, demonstrating that the selection procedure in our method is more robust. 提案手法は,AUC値の高い高品質なサンプルを1つのネットワークで選別した場合に比べて一貫して選別することができる。 0.66
The lymph node dataset was used in this part. この部分ではリンパ節データセットが使用された。 0.63
The difference (variation) of filtered clean label sample numbers from two networks is presented in Fig 6. フィルタされた2つのネットワークからのクリーンラベルサンプル数の差(変量)を図6に示す。 0.85
The two networks consistently selected a different number of samples, which shows the two networks have different learning abilities for noisy sample detection. 2つのネットワークは一貫して異なる数のサンプルを選択しており、2つのネットワークはノイズの多いサンプル検出のための学習能力が異なることを示している。 0.65
Learning curve of global alignment loss. グローバルアライメント損失の学習曲線。 0.70
In Fig 5 (c), we plot the change of global inter-sample relationship with and without the global alignment loss. 図5では (c)グローバルアライメント損失の有無に関わらず,グローバルアライメント間関係の変化をプロットする。 0.79
The results show that the loss of inter-sample relationships would not naturally converge during the network training when there is no explicit guidance. その結果,明示的なガイダンスがない場合,サンプル間関係の喪失はネットワークトレーニング中に自然に収束しないことがわかった。 0.71
The global alignment loss can enhance the feature robustness by aligning the relationship. グローバルアライメント損失は、関係を整列することで特徴の堅牢性を高めることができる。 0.68
V. DISCUSSION Deep neural networks usually require large-scale annotated training data, while the annotations of medical images usually are prone to experience and disagreement may appear between doctors. V.解離 深層ニューラルネットワークは通常、大規模な注釈付きトレーニングデータを必要とするが、医療画像の注釈は通常、医師の間で経験や不一致が生じやすい。 0.69
For diagnosis tasks in the medical image analysis field, the collection of large scale accurate annotated data is challenging due to the privacy policy and high work loading. 医用画像解析分野における診断タスクでは,プライバシポリシや高負荷のため,大規模な正確な注釈付きデータの収集が困難である。 0.87
Also, it is known that noisy labeled training data will hurt the performance of CNNs. また、ノイズラベル付きトレーニングデータによってCNNの性能が損なわれることも知られている。 0.65
Therefore, designing robust deep neural networks for medical image analysis is an appealing topic in the medical image analysis community. したがって、医療画像解析のためのロバストなディープニューラルネットワークの設計は、医療画像分析コミュニティにおいて魅力的なトピックである。
訳抜け防止モード: したがって、医用画像解析のための堅牢なディープニューラルネットワークの設計 医用画像分析コミュニティの 魅力ある話題です。
0.81
Many deep-learningbased methods have been developed for more robust training with corrupted training labels [7]–[9]. 劣化したトレーニングラベル[7]〜[9]を用いたより堅牢なトレーニングのために,多くのディープラーニングベースの手法が開発されている。 0.54
However, these methods しかし これらの方法は 0.79
10 (a) 10% (b) 20% 10 (a)10% (b)20% 0.41
(c) 40% Fig. 7: The comparison of the training loss distribution on histopathologic image patches. (c)40% 第7図:病理組織学的画像パッチにおけるトレーニング損失分布の比較 0.62
The first row represents the distribution trained with cross entropy while the second row represents the distribution of our method. 第1行はクロスエントロピーで訓練された分布を表し、第2行はメソッドの分布を表す。 0.83
TABLE VII: Statistical test results for Gleason grading dataset. TABLE VII: Gleason grading データセットの統計的テスト結果。 0.87
Cross entropy F-correction Mentornet Decoupling Co-teaching クロスエントロピーF補正メンターネットデカップリング協調学習 0.61
ELR A 9e-4 - ELR 9e-4 - 0.39
8e-4 2e-3 9e-4 2e-3 8e-4 2e-3 9e-4 2e-3 0.17
B 1e-4 - 1e-4 5e-4 9e-4 1e-4 B1e-4 - 1e-4 5e-4 9e-4 1e-4 0.29
exist a strong accumulated error caused by sample selection bias which is coming from the wrongly selected samples. 間違った選択されたサンプルからのサンプル選択バイアスによって引き起こされる強い累積誤差が存在する。 0.85
It will naturally influence the network performance and further decrease the quality of selected samples. ネットワーク性能に自然に影響を与え、選択したサンプルの品質をさらに低下させる。 0.77
On the other hand, the partial selection of training data would waste the valuable dataset during the training process. 一方、トレーニングデータの部分的な選択は、トレーニングプロセス中に貴重なデータセットを浪費することになる。 0.66
Furthermore, the hard sample is easy to be treated as the noisy label in medical image analysis, either discarding or re-labeling these data will lead to worse performance. さらに、ハードサンプルを医療画像解析においてノイズラベルとして扱うことは容易であり、これらのデータを破棄または再ラベルすることは、パフォーマンスを悪化させる。
訳抜け防止モード: さらに 硬いサンプルは 医療画像解析において,ノイズラベルとして扱う discarding (複数形 discardings) これらのデータをラベル付けし パフォーマンスが悪くなります。
0.78
In this work, through the selfensemble co-training scheme with a robust noisy label filter and two tailored self-supervision loss , a novel deep learning framework was proposed for the noisy labeled medical image dataset. 本研究では,頑健な雑音ラベルフィルタと2種類の自己スーパービジョン損失を用いた自己センブル協調学習方式により,雑音ラベル付き医用画像データセットに対して,新しいディープラーニングフレームワークを提案する。 0.64
Inspired by the collaborative training scheme proposed by [16], [42], a co-training network with a noisy label filter has been utilized to more explicitly enhance the network robustness and greatly alleviate the selection bias, as shown in Table V. Moreover, we incorporate a novel self-supervised learning scheme towards the global relationship alignment of samples in each batch and local clustering of each sample, which could maximally utilize the detected noisy labeled dataset (e g , noisy label or hard samples). Inspired by the collaborative training scheme proposed by [16], [42], a co-training network with a noisy label filter has been utilized to more explicitly enhance the network robustness and greatly alleviate the selection bias, as shown in Table V. Moreover, we incorporate a novel self-supervised learning scheme towards the global relationship alignment of samples in each batch and local clustering of each sample, which could maximally utilize the detected noisy labeled dataset (e g , noisy label or hard samples).
訳抜け防止モード: 16], [42] によって提案された協調訓練計画に触発された ノイズラベルフィルタを用いたco-training networkは,ネットワークのロバスト性を高めるために活用されている 表 vに示すように 選択バイアスを大幅に緩和します 各バッチにおけるサンプルのグローバルリレーションアライメントと各サンプルの局所クラスタリングに向けて,新しい自己教師あり学習方式を導入する。 検出されたノイズラベル付きデータセット(ノイズラベルやハードサンプルなど)を最大限に活用することができる。
0.82
The experimental results demonstrate that this strategy efficiently improves the utilization of training data and improves the model performance. 実験結果から, この戦略はトレーニングデータの利用を効率よく改善し, モデル性能を向上することが示された。 0.80
Fig 7 shows that our self-ensemble network with two regularization losses could detect the noisy label more efficiently by properly dividing the noisy and clean dataset. fig 7は,2つの正規化損失を有する自己センブルネットワークが,ノイズとクリーンなデータセットを適切に分割することにより,ノイズラベルをより効率的に検出できることを示す。 0.57
To evaluate the robustness of our method, it was tested on three types of noisy labels, i.e.random noise, computer generated label, and inter-observer variability. 本手法のロバスト性を評価するため, ランダムノイズ, コンピュータ生成ラベル, サーバ間変動の3種類のノイズラベルを用いて実験を行った。 0.77
For the random 010203040Epochs02550 75100125150175200Var iation0.20010203040E pochs050100150200250 Variation0.400.00.51 .00102030400.00.51.0 02468100.00.51.00123 0.00.51.001020304050 0.00.51.00204060800. 00.51.001020304050Cl eanNoise ランダムのために 010203040epochs02550 75100150175200variat ion0.200103040epochs 050100150200250varia tion0.400.00.51.0010 20400.00.51.00246810 0.01.001230.00.51.01 .001030404060800.00. 51.001020304050clean noise 0.41
英語(論文から抽出)日本語訳スコア
TABLE VIII: Statistical test results for NIH dataset. TABLE VIII: NIHデータセットの統計的テスト結果。 0.84
p-value Pneumothorax 8e-4 p値 気胸 8e-4 0.49
Nodule/Mass Nodule/Mass 0.29
8.3e-3 image classification tasks with random noise, computer generated noise, and noise caused by inter-observer variability. 8.3e-3 ランダムノイズ、コンピュータ生成ノイズ、およびサーバ間変動によるノイズによる画像分類タスク。 0.53
Experimental results demonstrate the effectiveness of our proposed framework in learning with the noisy label. 実験により,雑音ラベルを用いた学習における提案手法の有効性が示された。 0.62
11 noise, we simulated two noisy datasets using the ISIC skin lesion data and the Kaggle lymph node data with different noisy ratios. 11 ノイズでは,ISIC皮膚病変データとKaggleリンパ節データを用いてノイズ比の異なる2つのノイズデータセットをシミュレートした。 0.59
The results suggested that our method can handle random noise even with very imbalanced data distribution. その結果,不均衡なデータ分布であってもランダムノイズを処理できることがわかった。 0.74
To better evaluate the proposed method in a real-world setting, we trained the model using the public NIH datasets with NLP mined label and tested it on a manually labeled Chest X-ray dataset to verify the effectiveness of our method in reality. 提案手法を実世界の環境でよりよく評価するために,NLPマイニングラベルを用いた公開NIHデータセットを用いてモデルをトレーニングし,手動でChest X-rayデータセット上でテストし,実際の方法の有効性を検証する。 0.83
Our method consistently shows better results than the baseline and other comparison methods, showing that the proposed method can handle the computer generated label with mild noise. 提案手法はベースラインおよび他の比較手法よりも一貫して良好な結果を示し,提案手法は軽騒音下でコンピュータ生成ラベルを処理できることを示した。 0.78
The proposed method was also tested on the Gleason grading dataset with multi-annotators, which is labeled by six pathologists with different experiences. 提案手法は,経験の異なる6人の病理学者によってラベル付けされたマルチアノテータを用いて,Gleason gradingデータセット上でも検証された。 0.62
The dataset exists great inter-observer disagreements, our experiment showed that when using STAPLE estimated label as clean testing label, different training labels showed significantly different test results. 実験の結果,STAPLE推定ラベルをクリーンテストラベルとして使用すると,異なるトレーニングラベルが有意に異なる結果を示した。 0.64
Our method achieved the best results among all the comparison methods with significant improvements (p < 0.05, paired t-test), as shown in Table VII and Table VIII. 本手法は,Table VII と Table VIII に示すように,有意な改善 (p < 0.05, paired t-test) を施した全比較法で最高の結果を得た。 0.82
Overall, we show that the co-training strategy and selfsupervised regularization can work together to build a robust training scheme, which successfully selected the high quality data for training, as shown in Fig 5(b). 全体として、協調学習戦略と自己監督型正規化が協調して、トレーニングのための高品質なデータを選択する堅牢なトレーニングスキームを構築することが可能であることを図5(b)に示す。 0.73
Compared with other state-of-the-art methods, our method achieves significant improvement, no matter on a mild corrupted dataset or a heavily corrupted dataset. 他の最先端手法と比較して,本手法は軽度に劣化したデータセットや重度に劣化したデータセットに関係なく,大幅な改善を実現する。 0.59
In this study, we didn’t consider the disagreements between different annotators as a parameter during training, as recruiting annotations from multiple radiologists/patholo gists is timeconsuming in clinical practice. 本研究は,複数の放射線科医や病理科医からのアノテーション採用が臨床で時間を要するため,訓練中に異なる注釈者間の不一致をパラメータとして考慮しなかった。 0.69
In the future, we would like to extend our method to sample dependent label noise, such as considering the grading of each doctor as a clue for the noisy labels. 将来的には、各医師の採点をノイズラベルの手がかりとして考えるなど、依存するラベルノイズをサンプリングするために、この手法を拡張したいと思います。 0.61
Secondly, even though the two-network setting could be effective for alleviating the selection bias, the computation cost doubles with two networks. 第二に、2つのネットワークの設定が選択バイアスの軽減に有効であるとしても、計算コストは2つのネットワークで2倍になる。 0.63
One possible solution to alleviate the selection bias is to train the network in a meta-learning framework. 選択バイアスを軽減するひとつの可能な解決策は、ネットワークをメタラーニングフレームワークでトレーニングすることだ。
訳抜け防止モード: 選択バイアスを軽減する一つの可能な解決策は ネットワークをメタ学習フレームワークでトレーニングする。
0.80
VI. CONCLUSION In this paper, we present a global and local representation guided co-training strategy to address the challenging yet important noisy label issue for medical image analysis. VI。 結論 本稿では, 医用画像解析における難解かつ重要なノイズラベル問題に対処するために, グローバルおよびローカル表現の協調学習戦略を提案する。 0.69
The proposed method does not rely on refining or relabeling the noisy labeled data but employs two self-supervised losses to promote the learning of robust representation features. 提案手法では,ノイズラベルデータの改良やリラベル化は行わないが,頑健な表現特徴の学習を促進するために2つの自己教師付き損失を用いる。 0.63
Our method can alleviate the wasting of data, including the hard samples, and avoid introducing new noise to training labels in a mild noisy dataset. 本手法は, ハードサンプルを含むデータの無駄を軽減し, 軽度ノイズデータセットのトレーニングラベルに新しいノイズを導入することを避ける。 0.79
The proposed framework can be easily extended to multi-class classification tasks and used in general classification networks for improving model robustness. 提案フレームワークは多クラス分類タスクに容易に拡張でき、モデルロバスト性を改善するために一般的な分類ネットワークで使用される。 0.73
We extensively evaluated our method on four challenging medical 4つの挑戦医療の方法を 広く評価しました 0.68
REFERENCES [1] A. Esteva, B. Kuprel, R. A. Novoa, J. Ko, S. M. Swetter, H. M. Blau, and S. Thrun, “Dermatologist-level classification of skin cancer with deep neural networks,” Nature, vol. 参考 [1] A. Esteva, B. Kuprel, R. A. Novoa, J. Ko, S. M. Swetter, H. M. Blau, S. Thrun, “Dermatologist-level classification of skin cancer with deep neural network”, Nature, vol。
訳抜け防止モード: 参考 [1]A. Esteva, B. Kuprel, R. A. Novoa J. Ko, S. M. Swetter, H. M. Blau S. Thrun, “皮膚科医 – 深層神経ネットワークを用いた皮膚がんのレベル分類”。 自然。
0.64
542, no. 7639, p. 115, 2017. 542年、no.7639、p.115、2017年。 0.79
[2] A. A. A. Setio, A. Traverso, T. De Bel, M. S. Berens, C. van den Bogaard, P. Cerello, H. Chen, Q. Dou, M. E. Fantacci, B. Geurts et al , “Validation, comparison, and combination of algorithms for automatic detection of pulmonary nodules in computed tomography images: the luna16 challenge,” Medical image analysis, vol. A. A. A. Setio, A. Traverso, T. De Bel, M. S. Berens, C. van den Bogaard, P. Cerello, H. Chen, Q. Dou, M. E. Fantacci, B. Geurts et al , “Validation, comparison, combination of algorithm for Automatic detection of lung nodules in computerd tomography image: the luna16 Challenge”, Medical image analysis, vol.
訳抜け防止モード: A. A. A. Setio, A. Traverso, T. De Bel M.S. Berens, C. van den Bogaard, P. Cerello, H. Chen Q. Dou, M. E. Fantacci, B. Geurts et al。 「CT画像における肺結節の自動検出アルゴリズムの検証・比較・組み合わせ : Luna16 チャレンジ」 医用画像解析。
0.76
42, pp. 1–13, 2017. 42, pp. 1-13, 2017年。 0.73
[3] J. De Fauw, J. R. Ledsam, B. Romera-Paredes, S. Nikolov, N. Tomasev et al , “Clinically applicable deep learning for diagnosis and referral in retinal disease,” Nature medicine, vol. J. De Fauw, J. R. Ledsam, B. Romera-Paredes, S. Nikolov, N. Tomasev et al , “網膜疾患の診断とレファレンスのための臨床応用ディープラーニング”, Nature Medicine, Vol. 0.84
24, no. 9, p. 1342, 2018. 24.9.p.1342、2018年。 0.53
[4] B. E. Bejnordi, M. Veta, P. J. Van Diest, B. Van Ginneken, N. Karssemeijer, G. Litjens, J. A. Van Der Laak, M. Hermsen, Q. F. Manson, M. Balkenhol et al , “Diagnostic assessment of deep learning algorithms for detection of lymph node metastases in women with breast cancer,” Jama, vol. B.E. Bejnordi, M. Veta, P. J. Van Diest, B. Van Ginneken, N. Karssemeijer, G. Litjens, J. A. Van Der Laak, M. Hermsen, Q. F. Manson, M. Balkenhol et al , “乳癌患者のリンパ節転移を検出するためのディープラーニングアルゴリズムの診断的評価” Jama, vol. 0.87
318, no. 22, pp. 2199–2210, 2017. 318, no. 22 pp. 2199-2210, 2017 頁。 0.81
[5] C. Zhang, S. Bengio, M. Hardt, B. Recht, and O. Vinyals, “Understand- C. Zhang, S. Bengio, M. Hardt, B. Recht, O. Vinyals, “Understand” 0.38
ing deep learning requires rethinking generalization,” in ICLR, 2017. ing deep learningは、2017年のiclrで、“一般化を再考する必要がある”。 0.57
[6] P. Chen, B. Liao, G. Chen, and S. Zhang, “Understanding and utilizing deep neural networks trained with noisy labels,” arXiv preprint arXiv:1905.05040, 2019. P. Chen, B. Liao, G. Chen, S. Zhang, “Understanding and utilizeing Deep Neural Network trained with noisy labels” arXiv preprint arXiv: 1905.05040, 2019”。
訳抜け防止モード: [6 ]P. Chen, B. Liao, G. Chen, とS.Zhangは言う。 ノイズラベルで訓練されたディープニューラルネットワークを理解して活用する”。 arXiv preprint arXiv: 1905.05040 , 2019
0.71
[7] Y. Dgani, H. Greenspan, and J. Goldberger, “Training a neural network based on unreliable human annotation of medical images,” in Biomedical Imaging (ISBI 2018), 2018 IEEE 15th International Symposium on. Y. Dgani, H. Greenspan, J. Goldberger, “Training a neural network based on unreliable human annotations of medical images” in Biomedical Imaging (ISBI 2018), 2018 IEEE 15th International Symposium on.[7] Y. Dgani, H. Greenspan, J. Goldberger。
訳抜け防止モード: [7]Y. Dgani、H. Greenspan、J. Goldberger 医療画像の信頼できない人間のアノテーションに基づくニューラルネットワークのトレーニング」 In Biomedical Imaging (ISBI 2018 , 2018 IEEE 15th International Symposium on .
0.79
IEEE, 2018, pp. 39–42. IEEE, 2018, pp. 39-42。 0.43
[8] C. Xue, Q. Dou, X. Shi, H. Chen, and P. A. Heng, “Robust learning at noisy labeled medical images: Applied to skin lesion classification,” in ISBI, 2019. C. Xue, Q. Dou, X. Shi, H. Chen, P. A. Heng, “Robust Learning at noisy labeled medical images: Applied to skin lesion classification” in ISBI, 2019。
訳抜け防止モード: [8]C.Xue,Q.Dou,X.Shi, H. Chen, P. A. Heng, “ノイズの多い医療画像のロバスト学習 : 皮膚病変分類への応用”。 ISBI、2019年。
0.83
[9] H. Zhu, J. Shi, and J. Wu, “Pick-and-learn: Automatic quality evaluation for noisy-labeled image segmentation,” in International Conference on Medical Image Computing and Computer-Assisted Intervention. H. Zhu, J. Shi, J. Wu, “Pick-and-learn: Automatic quality evaluation for noisy-labeled image segmentation” in International Conference on Medical Image Computing and Computer-Assisted Intervention。
訳抜け防止モード: [9]h.zhu、j.shi、j.wu 「ピック」と「学習」 : 雑音-ラベル付き画像セグメンテーションの自動品質評価」 international conference on medical image computing and computer - assisted intervention に参加して
0.70
Springer, 2019, pp. 576–584. スプリンガー、2019年、p. 576-584。 0.54
[10] Y. Shu, X. Wu, and W. Li, “Lvc-net: Medical image segmentation with noisy label based on local visual cues,” in International Conference on Medical Image Computing and Computer-Assisted Intervention. Y. Shu, X. Wu, W. Li, “Lvc-net: Medical image segmentation with noisey label based on local visual cues”. International Conference on Medical Image Computing and Computer-Assisted Intervention. (英語)
訳抜け防止モード: [10]y.shu、x. wu、w.li 「lvc-net : 局所視覚手がかりに基づくノイズラベルによる医用画像分割」 international conference on medical image computing and computer - assisted intervention に参加して
0.82
Springer, 2019, pp. 558–566. 春田、2019年、p.558-566。 0.56
[11] C. Xue, Q. Deng, X. Li, Q. Dou, and P. [11]C.Xue,Q.Deng,X.Li,Q. Dou,P 0.34
-A. Heng, “Cascaded robust learning at imperfect labels for chest x-ray segmentation,” in International Conference on Medical Image Computing and Computer-Assisted Intervention. -A。 heng, “cascaded robust learning at imperfect labels for chest x-ray segmentation” in international conference on medical image computing and computer-assisted intervention” (英語)
訳抜け防止モード: -A。 heng氏: “胸部x線セグメンテーションの不完全ラベルにおけるロバスト学習のカスケード international conference on medical image computing and computer - assisted intervention に参加して
0.55
Springer, 2020, pp. 579–588. スプリンガー、2020年、p. 579-588。 0.57
[12] J. Goldberger and E. Ben-Reuven, “Training deep neural-networks using 12] J. Goldberger と E. Ben-Reuven, “Deep Neural-networks のトレーニング 0.81
a noise adaptation layer,” in ICLR, 2017. 2017年、ICLRで「ノイズ適応層」を発表。 0.73
[13] G. Patrini, A. Rozza, A. K. Menon, R. Nock, and L. Qu, “Making deep neural networks robust to label noise: A loss correction approach,” in CVPR, 2017, pp. 2233–2241. G. Patrini, A. Rozza, A. K. Menon, R. Nock, and L. Qu, “Making Deep Neural Network robust to label noise: A loss correct approach” in CVPR, 2017 pp. 2233–2241。
訳抜け防止モード: 13] g. patrini, a. rozza, a. k. menon, r. nock, そしてl. qu。 ラベルノイズにロバストなディープニューラルネットワーク cvpr, 2017 pp. 2233-2241における「損失補正アプローチ」。
0.70
[14] S. Zheng, P. Wu, A. Goswami, M. Goswami, D. Metaxas, and C. Chen, “Error-bounded correction of noisy labels,” in International Conference on Machine Learning. 14] s. zheng, p. wu, a. goswami, m. goswami, d. metaxas, c. chen, “error-bounded correction of noise labels”(ノイズラベルのエラー境界補正)は、機械学習に関する国際カンファレンスで発表された。
訳抜け防止モード: [14 ]S.Zheng,P.Wu,A.Goswa mi, M. Goswami, D. Metaxas, C. Chen, “Error - bounded correct of noisy labels”。 機械学習国際会議に参加して
0.85
PMLR, 2020, pp. 11 447–11 457. pmlr, 2020, pp. 11 447-11 457。 0.72
[15] L. Jiang, Z. Zhou, T. Leung, L. [15] L. Jiang, Z. Zhou, T. Leung, L. 0.49
-J. Li, and L. Fei-Fei, “MentorNet: Regularizing very deep neural networks on corrupted labels,” in ICML, 2018. -j。 2018年、icmlで、liとl. fei-feiは“mentornet: regularizing very deep neural networks on brokened labels”を発表した。 0.67
[16] B. Han, Q. Yao, X. Yu, G. Niu, M. Xu, W. Hu, I. Tsang, and M. Sugiyama, “Co-teaching: Robust training of deep neural networks with extremely noisy labels,” in Advances in neural information processing systems, 2018, pp. 8527–8537. [16] b. han, q. yao, x. yu, g. niu, m. xu, m. xu, w. hu, i. tsang, m. sugiyama, “co-teaching: robust training of deep neural networks with extreme noise labels” in advances in neural information processing systems, 2018, pp. 8527-8537. (英語)
訳抜け防止モード: [16]b.ハン,q.ヤオ,x.ユ, g. niu, m. xu, w. hu, i. tsang, and m. sugiyama, "co - teaching : robust training of deep neural network with ultra noise labels" (特集 深層ニューラルネットワーク) ニューラル・インフォメーション・プロセッシング・システムズ2018, pp. 8527-8537。
0.72
[17] D. Hendrycks, M. Mazeika, D. Wilson, and K. Gimpel, “Using trusted data to train deep networks on labels corrupted by severe noise,” in Advances in neural information processing systems, 2018, pp. 10 456– 10 465. D. Hendrycks氏、M. Mazeika氏、D. Wilson氏、K. Gimpel氏は、ニューラル情報処理システムの進歩、2018年、pp. 10 456–10 465の中で、ラベルのディープネットワークをトレーニングするために信頼できるデータを使用します。 0.66
[18] J. Jiang, J. Ma, Z. Wang, C. Chen, and X. Liu, “Hyperspectral image classification in the presence of noisy labels,” IEEE Transactions on Geoscience and Remote Sensing, vol. J. Jiang, J. Ma, Z. Wang, C. Chen, X. Liu, “Hyperspectral image classification in the presence of noisy labels”, IEEE Transactions on Geoscience and Remote Sensing, vol. 0.40
57, no. 2, pp. 851–865, 2018. 57, No. 2, pp. 851-865, 2018。 0.91
[19] X. Xia, T. Liu, N. Wang, B. Han, C. Gong, G. Niu, and M. Sugiyama, “Are anchor points really indispensable in label-noise learning?” in Advances in Neural Information Processing Systems, 2019, pp. 6838– 6849. [19] x. xia, t. liu, n. wang, b. han, c. gong, g. niu, m. sugiyama, “アンカーポイントはラベルノイズ学習に本当に不可欠か?
訳抜け防止モード: [19 ]X. Xia, T. Liu, N. Wang, B. Han, C. Gong, G. Niu, M. Sugiyama ニューラル・インフォメーション・プロセッシング・システムにおける「アンカーポイントはラベルには本当に不可欠か?ノイズラーニング?」 2019 , pp . 6838 – 6849 .
0.84
英語(論文から抽出)日本語訳スコア
12 [42] E. Malach and S. Shalev-Shwartz, “Decoupling” when to update” from” how to update”,” in Advances in Neural Information Processing Systems, 2017, pp. 960–970. 12 [42] e. malach氏とs. shalev-shwartz氏は、"how to update"から"decoupling" when to update"を分離している。
訳抜け防止モード: 12 a b “42 ] malach and s. shalev - shwartz, “decoupling ” when to update ” from ” how to update ””[42 ] (英語) ニューラル・インフォメーション・プロセッシング・システムズ、2017年、p.960-970。
0.59
[43] T. Chen, S. Kornblith, M. Norouzi, and G. Hinton, “A simple framework for contrastive learning of visual representations,” arXiv preprint arXiv:2002.05709, 2020. T. Chen, S. Kornblith, M. Norouzi, G. Hinton, “A simple framework for contrastive learning of visual representations” arXiv preprint arXiv:2002.05709, 2020。
訳抜け防止モード: [43 ]T. Chen, S. Kornblith, M. Norouzi, そしてG. Hintonは、“視覚表現の対照的な学習のためのシンプルなフレームワーク”だ。 arXiv preprint arXiv:2002.05709 , 2020。
0.75
[44] U. Avni, H. Greenspan, E. Konen, M. Sharon, and J. Goldberger, “Xray categorization and retrieval on the organ and pathology level, using patch-based visual words,” IEEE Transactions on Medical Imaging, vol. U.Avni, H. Greenspan, E. Konen, M. Sharon, J. Goldberger, “X線分類と臓器と病理の検索は、パッチベースのビジュアルワードを使って行う”、IEEE Transactions on Medical Imaging, vol。 0.74
30, no. 3, pp. 733–746, 2010. 30 no. 3, pp. 733-746, 2010 頁。 0.82
[45] A. Tarvainen and H. Valpola, “Mean teachers are better role models: Weight-averaged consistency targets improve semi-supervised deep learning results,” in Advances in neural information processing systems, 2017, pp. 1195–1204. 45] a. tarvainen, h. valpola, “mean teachers are better role models: weight-averaged consistency targets improve semi-supervised deep learning results” in advances in neural information processing systems, 2017 pp. 1195–1204。
訳抜け防止モード: [45 ]A. Tarvainen,H. Valpola, “平均教師はより良いロールモデルである。 In Advances in Neural Information Processing System, 2017, pp. 1195–1204。
0.55
[46] D. Berthelot, N. Carlini, I. Goodfellow, N. Papernot, A. Oliver, and C. A. Raffel, “Mixmatch: A holistic approach to semi-supervised learning,” in Advances in Neural Information Processing Systems, 2019, pp. 5049– 5059. D. Berthelot, N. Carlini, I. Goodfellow, N. Papernot, A. Oliver, and C. A. Raffel, “Mixmatch: A holistic approach to semi-supervised learning” in Advances in Neural Information Processing Systems, 2019, pp. 5049–5059。
訳抜け防止モード: 46 ] d. berthelot, n. carlini, i. goodfellow, n. papernot, a. oliver, c. a. raffel, “mixmatch: a holistic approach to semi-supervised learning” ニューラル・インフォメーション・プロセッシング・システムズ, 2019, pp. 5049 – 5059。
0.77
[47] B. S. Veeling, J. Linmans, J. Winkens, T. Cohen, and M. Welling, “Rotation equivariant cnns for digital pathology,” in International Conference on Medical image computing and computer-assisted intervention. [47]B.S. Veeling, J. Linmans, J. Winkens, T. Cohen, M. Welling, “Rotation equivariant cnns for digital pathology” in International Conference on Medical Image Computing and computer-assisted intervention。 0.46
Springer, 2018, pp. 210–218. スプリンガー、2018年、p.210-218。 0.44
[48] X. Wang, Y. Peng, L. Lu, Z. Lu, M. Bagheri, and R. M. Summers, “Chestx-ray8: Hospital-scale chest x-ray database and benchmarks on weakly-supervised classification and localization of common thorax diseases,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, pp. 2097–2106. [48] x. wang, y. peng, l. lu, z. lu, m. bagheri, r. m. summers, “chestx-ray8: hospital-scale chest x-ray database and benchmarks on weakly supervised classification and localization of common thorax diseases” in the ieee conference on computer vision and pattern recognition, 2017 pp. 2097–2106
訳抜け防止モード: [48 ]X. Wang, Y. Peng, L. Lu, Z. Lu, M. Bagheri, R. M. Summers, “Chestx - ray8 : Hospital - scale chest x - ray database” 一般的な胸郭疾患の分類と局所化の弱さに関するベンチマークです。 In Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, pp. 2097–2106。
0.74
[49] A. Majkowska, S. Mittal, D. F. Steiner, J. J. Reicher, S. M. McKinney, G. E. Duggan, K. Eswaran, P. A. Majkowska, S. Mittal, D. F. Steiner, J. J. Reicher, S. M. McKinney, G. E. Duggan, K. Eswaran, P. 0.45
-H. Cameron Chen, Y. Liu, S. R. Kalidindi et al , “Chest radiograph interpretation with deep learning models: assessment with radiologist-adjudica ted reference standards and population-adjusted evaluation,” Radiology, vol. -h。 Cameron Chen, Y. Liu, S. R. Kalidindi et al , “Chhest radiograph interpretation with Deep Learning model: Assessment with Radioologist-adjudic ated Reference Standard and population-adjusted evaluation”. Radiology, vol.
訳抜け防止モード: -h。 cameron chen, y. liu, s. r. kalidindi et al. 深層学習モデルを用いた胸部x線画像の解釈 : 放射線科医による評価 - 基準基準と人口の調整-
0.72
294, no. 2, pp. 421–431, 2020. 294, no. 2, pp. 421-431, 2020。 0.89
[50] G. Nir, S. Hor, D. Karimi, L. Fazli, B. F. Skinnider, P. Tavassoli, D. Turbin, C. F. Villamil, G. Wang, R. S. Wilson et al , “Automatic grading of prostate cancer in digitized histopathology images: Learning from multiple experts,” Medical image analysis, vol. 50] g. nir, s. hor, d. karimi, l. fazli, b. f. skinnider, p. tavassoli, d. turbin, c. f. villamil, g. wang, r. s. wilson et al , "デジタル化病理組織画像における前立腺癌の自動段階的診断: 複数の専門家から学ぶこと", 医用画像解析, vol。
訳抜け防止モード: [50 ]G.Nir,S.Hor,D.Karimi , L. Fazli, B. F. Skinnider, P. Tavassoli, D. Turbin C. F. Villamil, G. Wang, R. S. Wilson et al デジタル化病理画像における前立腺癌の自動評価 複数の専門家から学ぶ”。 医用画像解析。
0.86
50, pp. 167–180, 2018. 50, pp. 167–180, 2018。 0.88
[51] D. Karimi, G. Nir, L. Fazli, P. C. Black, L. Goldenberg, and S. E. Salcudean, “Deep learning-based gleason grading of prostate cancer from histopathology images—role of multiscale decision aggregation and data augmentation,” IEEE journal of biomedical and health informatics, vol. eee journal of biomedical and health informatics, vol. “51] d. karimi, g. nir, l. fazli, p. c. black, l. goldenberg, and s. e. salcudean, “深層学習に基づく前立腺がんの組織病理画像による評価 — マルチスケールの意思決定集約とデータ拡張の要領”、とieee journal of biomedical and health informatics, vol. は述べている。
訳抜け防止モード: [51 ]D.カリミ,G.ニル,L.ファズリ, P.C. Black、L. Goldenberg、S.E. Salcudean。 深層学習(Deep Learning) - 前立腺癌の病理像からのグリーソングレーディング(gleasongrading)に基づく。 IEEE Journal of Biomedical and Health Informationatics, vol。
0.69
24, no. 5, pp. 1413–1426, 2019. 24、no. 5, pp. 1413-1426、2019。 0.81
[52] D. Karimi, H. Dou, S. K. Warfield, and A. Gholipour, “Deep learning with noisy labels: Exploring techniques and remedies in medical image analysis,” Medical Image Analysis, vol. 52] d. karimi, h. dou, s. k. warfield, a. gholipour, “deep learning with noise labels: exploration techniques and remedies in medical image analysis”, medical image analysis, vol. 日本語版記事)。
訳抜け防止モード: [52 ]d. カリミ, h. dou, s. k. warfield, a. gholipour, “deep learning with noise labels” について 医療画像解析における技術と治療の探求」 医用画像解析
0.82
65, p. 101759, 2020. 65, p. 101759, 2020。 0.91
[53] S. K. Warfield, K. H. Zou, and W. M. Wells, “Simultaneous truth and performance level estimation (staple): an algorithm for the validation of image segmentation,” IEEE transactions on medical imaging, vol. [53] s.k. warfield, k. h. zou, w. m. wells, “simultaneous truth and performance level estimation (staple: an algorithm for the validation of image segmentation”, ieee transactions on medical imaging, vol.)。
訳抜け防止モード: 53] s. k. warfield, k. h. zou, w. m. wells. 画像分割の検証のためのアルゴリズム「同時真理と性能レベル推定(staple)」 ieee transactions on medical imaging, vol. 参照。
0.77
23, no. 7, pp. 903–921, 2004. 23, No. 7, pp. 903–921, 2004。 0.47
[20] Y. Yao, T. Liu, B. Han, M. Gong, J. Deng, G. Niu, and M. Sugiyama, “Dual t: Reducing estimation error for transition matrix in label-noise learning,” Advances in Neural Information Processing Systems, vol. 20] y. yao, t. liu, b. han, m. gong, j. deng, g. niu, m. sugiyama, “dual t: reduce estimation error for transition matrix in label-noise learning” ニューラル情報処理システムにおける進歩。 0.82
33, 2020. [21] S. Sukhbaatar, J. Bruna, M. Paluri, L. Bourdev, and R. Fergus, “Training convolutional networks with noisy labels,” arXiv preprint arXiv:1406.2080, 2014. 33, 2020. S. Sukhbaatar, J. Bruna, M. Paluri, L. Bourdev, R. Fergus, “Training convolutional network with noisy labels, arXiv preprint arXiv:1406.2080, 2014”。
訳抜け防止モード: 33, 2020. [21]S. Sukhbaatar, J. Bruna, M. Paluri, L. BourdevとR. Fergus。 騒々しいラベルで畳み込みネットワークを訓練する。 arXiv preprint arXiv:1406.2080 , 2014
0.65
[22] D. Tanaka, D. Ikami, T. Yamasaki, and K. Aizawa, “Joint optimization 【22】田中d.、井上d.、山崎t.、愛沢k.『共同最適化』 0.56
framework for learning with noisy labels,” in CVPR, 2018. とCVPR, 2018で述べている。 0.28
[23] M. Ren, W. Zeng, B. Yang, and R. Urtasun, “Learning to reweight [23]M. Ren, W. Zeng, B. Yang, R. Urtasun, “Learning to reweight” 0.47
examples for robust deep learning,” in ICML, 2018. と、2018年のicmlで述べている。 0.27
[24] D. T. Nguyen, C. K. Mummadi, T. P. N. Ngo, T. H. P. Nguyen, L. Beggel, and T. Brox, “Self: Learning to filter noisy labels with self-ensembling,” arXiv preprint arXiv:1910.01842, 2019. D. T. Nguyen, C. K. Mummadi, T. P. Ngo, T. H. P. Nguyen, L. Beggel, T. Brox, “Self: Learning to filter noisey labels with self-ensembling” arXiv preprint arXiv:1910.01842, 2019”。
訳抜け防止モード: [24 ]D. T. Nguyen, C. K. Mummadi, T. P. N. Ngo, T. H. P. Nguyen, L. Beggel, T. Brox 「自己:自己でうるさいラベルをフィルターする学習」 arXiv preprint arXiv:1910.01842, 2019。
0.84
[25] J. Li, R. Socher, and S. C. Hoi, “Dividemix: Learning with noisy labels as semi-supervised learning,” arXiv preprint arXiv:2002.07394, 2020. J. Li, R. Socher, S. C. Hoi, “Dividemix: Learning with noisy labels as semi-supervised learning” arXiv preprint arXiv:2002.07394, 2020。 0.46
[26] Y. Ding, L. Wang, D. Fan, and B. Gong, “A semi-supervised twostage approach to learning from noisy labels,” in 2018 IEEE Winter Conference on Applications of Computer Vision (WACV). 26] y. ding, l. wang, d. fan, b. gong, “a semi-supervised twostage approach to learning from noisy labels” 2018 ieee winter conference on applications of computer vision (wacv) で発表された。
訳抜け防止モード: [26 ]y ding, l. wang, d. fan, とb. gongは言う。“騒がしいラベルから学ぶための二段階的なアプローチ”だ。 2018年、ieee winter conference on applications of computer vision (wacv)。
0.73
IEEE, 2018, pp. 1215–1224. IEEE, 2018, pp. 1215-1224。 0.85
[27] D. T. Nguyen, T. [27] D. T. Nguyen, T。 0.46
-P. -N. Ngo, Z. Lou, M. Klar, L. Beggel, and T. Brox, “Robust learning under label noise with iterative noise-filtering,” arXiv preprint arXiv:1906.00216, 2019. -P。 -N。 Ngo, Z. Lou, M. Klar, L. Beggel, T. Brox, “Robust learning under label noise with Iterative noise-filtering” arXiv preprint arXiv:1906.00216, 2019”。
訳抜け防止モード: -P。 -N。 Ngo, Z. Lou, M. Klar, L. Beggel そしてT. Brox氏は,“ラベルノイズ下でのロバストな学習と反復的なノイズフィルタリング”について語る。 arXiv preprint arXiv:1906.00216 , 2019
0.52
[28] S. Liu, J. Niles-Weed, N. Razavian, and C. Fernandez-Granda, “Earlylearning regularization prevents memorization of noisy labels,” Advances in Neural Information Processing Systems, vol. 28] s. liu, j. niles-weed, n. razavian, c. fernandez-granda, “早期学習の正規化はノイズラベルの記憶を妨げている”。
訳抜け防止モード: [28 ] S. Liu, J. Niles - Weed, N. Razavian, C. Fernandez - Granda, “Earlylearning regularization prevents memorization of noisy labels”。 ニューラル情報処理システムの進歩
0.83
33, 2020. [29] S. Min, X. Chen, Z. 33, 2020. [29]S. Min, X. Chen, Z. 0.45
-J. Zha, F. Wu, and Y. Zhang, “A two-stream mutual attention network for semi-supervised biomedical segmentation with noisy labels,” in Proceedings of the AAAI Conference on Artificial Intelligence, vol. -j。 zha, f. wu, y. zhang, “a aaai conference on artificial intelligence, vol. “a two-stream mutual attention network for semi-supervised biomedical segmentation with noise labels”(ノイズラベル付き半教師付きバイオメディカルセグメンテーションのための双方向相互注意ネットワーク)。
訳抜け防止モード: -j。 Zha, F. Wu, Y. Zhang両氏は,“ノイズラベル付きバイオメディカルセグメンテーションのための2つのストリーム相互注意ネットワーク”だ。 人工知能国際会議(AAAI)に参加して
0.74
33, no. 01, 2019, pp. 4578–4585. 33, no. 01, 2019, pp. 4578-4585。 0.90
[30] H. Le, D. Samaras, T. Kurc, R. Gupta, K. Shroyer, and J. Saltz, “Pancreatic cancer detection in whole slide images using noisy label annotations,” in International Conference on Medical Image Computing and Computer-Assisted Intervention. 30] h. le, d. samaras, t. kurc, r. gupta, k. shroyer, j. saltz, “pancreatic cancer detection in whole slide images using noise label annotations” は、医用画像コンピューティングとコンピュータ支援による介入に関する国際会議である。 0.83
Springer, 2019, pp. 541–549. 春田、2019年、p.541-549。 0.55
[31] Y. Wang, W. Liu, X. Ma, J. Bailey, H. Zha, L. Song, and S. [31] Y. Wang, W. Liu, X. Ma, J. Bailey, H. Zha, L. Song, S。 0.47
-T. Xia, “Iterative learning with open-set noisy labels,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018, pp. 8688–8696. -T。 the ieee conference on computer vision and pattern recognition, 2018, pp. 8688-8696 で "オープンセットノイズラベルによる反復学習" が行われた。
訳抜け防止モード: -T。 Xia, “オープン-セットノイズラベルによる反復的な学習”。 IEEE Conference on Computer Vision and Pattern Recognition に参加して 2018 , pp . 8688–8696 .
0.64
[32] N. C. Codella et al , “Skin lesion analysis toward melanoma detection: A challenge at the 2017 international symposium on biomedical imaging (isbi), hosted by the international skin imaging collaboration (isic),” in Biomedical Imaging (ISBI 2018), 2018 IEEE 15th International Symposium on. 32] n. c. codella et al , “skin lesion analysis toward melanoma detection: a challenge at the 2017 international symposium on biomedical imaging (isbi) hosted by the international skin imaging collaboration (isic)” in biomedical imaging (isbi 2018), 2018 ieee 15th international symposium on。
訳抜け防止モード: 32 ] n. c. codella et al, “skin lesion analysis toward melanoma detection: a challenge at the 2017 international symposium on biomedical imaging (isbi)” 国際皮膚イメージングコラボレーション(isic)が主催する”in biomedical imaging(isbi 2018)”。 2018年ieee第15回国際シンポジウムに参加して
0.86
IEEE, 2018, pp. 168–172. IEEE, 2018, pp. 168-172。 0.82
[33] S. Demyanov, R. Chakravorty, M. Abedini, A. Halpern, and R. Garnavi, “Classification of dermoscopy patterns using deep convolutional neural networks,” in 2016 IEEE 13th International Symposium on Biomedical Imaging (ISBI). 2016年 IEEE 13th International Symposium on Biomedical Imaging (ISBI) において、[33] S. Demyanov, R. Chakravorty, M. Abedini, A. Halpern, R. Garnavi, “Deep Convolutional Neural Network を用いた皮膚内視鏡パターンの分類” を報告した。 0.77
IEEE, 2016, pp. 364–368. IEEE, 2016, pp. 364-368。 0.85
[34] J. Kawahara, A. BenTaieb, and G. Hamarneh, “Deep features to classify skin lesions,” in 2016 IEEE 13th International Symposium on Biomedical Imaging (ISBI). [34] kawahara, a. bentaieb, g. hamarneh, “deep features to classification skin lesions” 2016 ieee 13th international symposium on biomedical imaging (isbi) で発表された。 0.76
IEEE, 2016, pp. 1397–1400. IEEE, 2016, pp. 1397-1400。 0.85
[35] J. Premaladha and K. Ravichandran, “Novel approaches for diagnosing melanoma skin lesions through supervised and deep learning algorithms,” Journal of medical systems, vol. J. Premaladha氏とK. Ravichandran氏は,“教師付き深層学習アルゴリズムによるメラノーマ皮膚病変の診断へのノーベルなアプローチ”を論じています。 0.69
40, no. 4, p. 96, 2016. 40,no.4,p.96,2016。 0.39
[36] L. Yu, H. Chen, Q. Dou, J. Qin, and P. [36]L.Yu,H.Chen,Q.Dou,J. Qin,P。 0.73
-A. Heng, “Automated melanoma recognition in dermoscopy images via very deep residual networks,” IEEE transactions on medical imaging, vol. -A。 IEEEは医療画像に関する取引で「非常に深い残留ネットワークを通した皮膚内視鏡画像におけるメラノーマの認識を自動化する」と述べた。
訳抜け防止モード: -A。 非常に深い残留ネットワークを通した皮膚内視鏡画像におけるメラノーマの自動認識」 IEEEによる医療画像のトランザクション。
0.60
36, no. 4, pp. 994–1004, 2016. 36, no. 4, pp. 994–1004, 2016年。 0.88
[37] D. Wang, A. Khosla, R. Gargeya, H. [37] D. Wang, A. Khosla, R. Gargeya, H。 0.46
Irshad, and A. H. Beck, “Deep learning for identifying metastatic breast cancer,” arXiv preprint arXiv:1606.05718, 2016. Irshad, and A. H. Beck, “Deep Learning for identify metastatic breast cancer” arXiv preprint arXiv:1606.05718, 2016
訳抜け防止モード: Irshad, and A. H. Beck, “ディープラーニングによる転移性乳癌の同定” arXiv preprint arXiv:1606.05718 , 2016
0.85
[38] B. Kong, X. Wang, Z. Li, Q. Song, and S. Zhang, “Cancer metastasis detection via spatially structured deep network,” in International Conference on Information Processing in Medical Imaging. [38] b. kong, x. wang, z. li, q. song, s. zhang, “cancer metastasis detection via spatially structured deep network” in international conference on information processing in medical imaging。
訳抜け防止モード: [38]b. kong, x. wang, z. li, q. song,s. zhang, “空間構造深層ネットワークによる癌転移の検出” international conference on information processing in medical imaging に参加して
0.83
Springer, 2017, pp. 236–248. 2017年、p.236-248。 0.55
[39] P. Courtiol, E. W. Tramel, M. Sanselme, and G. Wainrib, “Classification and disease localization in histopathology using only global labels: A weakly-supervised approach,” arXiv preprint arXiv:1802.02212, 2018. P. Courtiol氏、E.W. Tramel氏、M. Sanselme氏、G. Wainrib氏は、「グローバルラベルのみを用いた病理組織における分類と疾病の局在化:弱い監督されたアプローチ」 arXiv preprint arXiv:1802.02212, 2018。 0.65
[40] Y. Liu, K. Gadepalli, M. Norouzi, G. E. Dahl, T. Kohlberger, A. Boyko, S. Venugopalan, A. Timofeev, P. Q. Nelson, G. S. Corrado et al , “Detecting cancer metastases on gigapixel pathology images,” arXiv preprint arXiv:1703.02442, 2017. Y. Liu, K. Gadepalli, M. Norouzi, G. E. Dahl, T. Kohlberger, A. Boyko, S. Venugopalan, A. Timofeev, P. Q. Nelson, G. S. Corrado et al , “Detecting cancer metastass on gigapixel pathology images” arXiv preprint arXiv:1703.02442, 2017 0.47
[41] A. Cruz-Roa, H. Gilmore, A. Basavanhally, M. Feldman, S. Ganesan, N. N. Shih, J. Tomaszewski, F. A. Gonz´alez, and A. Madabhushi, “Accurate and reproducible invasive breast cancer detection in wholeslide images: A deep learning approach for quantifying tumor extent,” Scientific reports, vol. 41] a. cruz-roa, h. gilmore, a. basavanhally, m. feldman, s. ganesan, n. n. shih, j. tomaszewski, f. a. gonz ́alez, a. madabhushi, “wholeslide image: a deep learning approach for quantifying tumor extent: an quantifying tumor extent.”. 科学誌vol.
訳抜け防止モード: [41 ]A. Cruz-Roa, H. Gilmore, A. Basavanhally, M. Feldman, S. Ganesan, N. N. Shih, J. Tomaszewski F. A. Gonz ́alez と A. Madabhushi は、「クロスライド画像における正確な再現可能な乳がん検出 : 腫瘍範囲の定量化のための深層学習アプローチ」と述べている。 科学論文。
0.76
7, p. 46450, 2017. 7, p. 46450, 2017。 0.85
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。