論文の概要、ライセンス

# (参考訳) 肺結節分類の改善のためのメタオーディナル重み付け網 [全文訳有]

Meta ordinal weighting net for improving lung nodule classification ( http://arxiv.org/abs/2102.00456v1 )

ライセンス: CC BY 4.0
Yiming Lei, Hongming Shan, Junping Zhang(参考訳) 肺癌の進行は、良性から不確実性までの異なる段階における肺結節の内在性順序関係を意味する。 この問題は、その順序ラベルによる分類と回帰の間の順序回帰法によって解決することができる。 しかし、既存の畳み込みニューラルネットワーク(CNN)ベースの順序回帰法は、ランダムにサンプリングされたデータのミニバッチに基づいて分類ヘッドを変更することのみに焦点を当て、データ自体に存在する順序関係を無視している。 本稿では、各トレーニングサンプルを、すべてのクラスからいくつかのサンプルを含むメタ順序集合(mos)に明示的に整合させるメタ順序重み付けネットワーク(mow-net)を提案する。 トレーニングプロセス中、MOW-NetはMOSのサンプルから対応するクラス固有のウェイトへのマッピングを学びます。 さらに,メタ学習方式でネットワークを最適化するために,メタクロスエントロピー(MCE)損失を提案する。 実験の結果,MOW-Netは,特に不確実クラスにおいて,最先端の順序回帰法よりも精度が高いことがわかった。

The progression of lung cancer implies the intrinsic ordinal relationship of lung nodules at different stages-from benign to unsure then to malignant. This problem can be solved by ordinal regression methods, which is between classification and regression due to its ordinal label. However, existing convolutional neural network (CNN)-based ordinal regression methods only focus on modifying classification head based on a randomly sampled mini-batch of data, ignoring the ordinal relationship resided in the data itself. In this paper, we propose a Meta Ordinal Weighting Network (MOW-Net) to explicitly align each training sample with a meta ordinal set (MOS) containing a few samples from all classes. During the training process, the MOW-Net learns a mapping from samples in MOS to the corresponding class-specific weight. In addition, we further propose a meta cross-entropy (MCE) loss to optimize the network in a meta-learning scheme. The experimental results demonstrate that the MOW-Net achieves better accuracy than the state-of-the-art ordinal regression methods, especially for the unsure class.
公開日: Sun, 31 Jan 2021 14:00:20 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
META ORDINAL WEIGHTING NET FOR IMPROVING LUNG NODULE CLASSIFICATION 肺結節分類を改善するメタ順序重み付けネット 0.42
Yiming Lei1 Hongming Shan2,∗ Yiming Lei1 Hongming Shan2,∗ 0.97
Junping Zhang1 Junping Zhang1 0.88
1Shanghai Key Lab of Intelligent Information Processing, School of Computer Science 1Shanghai Key Lab of Intelligent Information Processing, School of Computer Science 0.92
2Institute of Science and Technology for Brain-inspired Intelligence 2脳インスパイアされた知能のための科学技術研究所 0.57
Fudan University, Shanghai 200433, China 福田大学、上海200433、中国。 0.71
1 2 0 2 n a J 1 2 0 2 n a J 0.85
1 3 ] V C . 1 3 ] V C。 0.81
s c [ 1 v 6 5 4 0 0 sc [ 1 v 6 5 4 0 0 0.68
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
ABSTRACT The progression of lung cancer implies the intrinsic ordinal relationship of lung nodules at different stages—from benign to unsure then to malignant. ABSTRACT 肺癌の進行は、良性から不確実まで、悪性まで、様々な段階における肺結節の固有順序関係を暗示する。 0.74
This problem can be solved by ordinal regression methods, which is between classification and regression due to its ordinal label. この問題は、その順序ラベルによる分類と回帰の間の順序回帰法によって解決することができる。 0.69
However, existing convolutional neural network (CNN)-based ordinal regression methods only focus on modifying classification head based on a randomly sampled mini-batch of data, ignoring the ordinal relationship resided in the data itself. しかし、既存の畳み込みニューラルネットワーク(CNN)ベースの順序回帰法は、ランダムにサンプリングされたデータのミニバッチに基づいて分類ヘッドを変更することのみに焦点を当て、データ自体に存在する順序関係を無視している。 0.60
In this paper, we propose a Meta Ordinal Weighting Network (MOW-Net) to explicitly align each training sample with a meta ordinal set (MOS) containing a few samples from all classes. 本稿では、各トレーニングサンプルを、すべてのクラスからいくつかのサンプルを含むメタ順序集合(mos)に明示的に整合させるメタ順序重み付けネットワーク(mow-net)を提案する。 0.74
During the training process, the MOW-Net learns a mapping from samples in MOS to the corresponding class-specific weight. トレーニングプロセス中、MOW-NetはMOSのサンプルから対応するクラス固有のウェイトへのマッピングを学びます。 0.66
In addition, we further propose a meta cross-entropy (MCE) loss to optimize the network in a meta-learning scheme. さらに,メタ学習方式でネットワークを最適化するために,メタクロスエントロピー(MCE)損失を提案する。 0.79
The experimental results demonstrate that the MOW-Net achieves better accuracy than the state-of-the-art ordinal regression methods, especially for the unsure class. 実験の結果,MOW-Netは,特に不確実クラスにおいて,最先端の順序回帰法よりも精度が高いことがわかった。 0.54
Index Terms— Convolutional neural network, lung nod- Index Terms - Convolutional Neural Network, lung nod- 0.93
ule classification, meta-learning, ordinal regression ule分類、メタラーニング、順序回帰 0.67
1. INTRODUCTION Deep convolutional neural networks (CNNs) have recently achieved impressive results in lung nodule classification based on computed tomography (CT) [1–8]. 1. 導入 深部畳み込みニューラルネット(CNN)は近年,CT(Computed tomography) [1-8]に基づく肺結節分類において顕著な成果を上げている。 0.67
However, this kind of method usually performs a binary classification (malignant vs. benign) by omitting the unsure nodules—those between benign and malignant—which is a great waste of medical data for machine learning algorithms, especially for data-hungry deep learning methods. しかし、この種の方法は、通常、マシンラーニングアルゴリズム、特にデータハングリーディープラーニング方法のための医療データの大きな無駄である良性と悪性の間の不確実な結節を省略することによって、バイナリ分類(良性対良性)を実行する。 0.68
Therefore, how to leverage unsure data to learn a robust model is crucial for lung nodule classification. したがって、肺結節分類には、不確実なデータを利用して堅牢なモデルを学ぶ方法が不可欠です。 0.64
*Corresponding Author. ©2021 IEEE. ※対応作家。 ©2021 IEEE。 0.73
Personal use of this material is permitted. この素材の個人使用は許可されている。 0.65
Permission from IEEE must be obtained for all other uses, in any current or future media, including reprinting/republish ing this material for advertising or promotional purposes, creating new collective works, for resale or redistribution to servers or lists, or reuse of any copyrighted component of this work in other works. IEEEからの許可は、広告又は宣伝目的のためにこの資料を再印刷または再出版し、新しい集団作品を作成し、サーバまたはリストの再販売または再配布し、この作品の著作権のあるコンポーネントを他の作品で再利用することを含む、現在又は将来のメディアのあらゆる用途で取得されなければならない。 0.63
Fig. 1. The illustration of the MOW-Net. フィギュア。 1. MOW-Netのイラストです。 0.70
Each training sample is aligned with a meta ordinal set which contains k samthe Li,c ples of each class. 各トレーニングサンプルは、各クラスのk samthe Li,c plesを含むメタ順序セットと整列します。 0.75
Forward: CE denotes the crossentropy loss of class c w.r.t. フォワード: CE はクラス c w.r.t のクロスエントロピー損失を表す。 0.64
the i-th training sample, and each Lic CE is mapped to the corresponding weight through the specific MLP. i番目のトレーニングサンプルと各Lic CEは、特定のMLPを介して対応する重量にマッピングされる。 0.71
Backward: the two parts of parameters Θ and Φ are updated alternatively based on the proposed MCE loss and the Meta loss, respectively. 後方:パラメータの2つの部分は、それぞれ提案されたMCE損失とメタ損失に基づいて、代替的に更新される。 0.78
To this end, the ordinal regression has been widely explored to utilize those unsure nodules. この目的のために、順序回帰はこれらの不確かな結節を利用するために広く研究されてきた。 0.44
The unsure data model (UDM) [9] was proposed to learn with unsure lung nodules, and it regards this classification as an ordinal regression problem, which optimizes the negative logarithm of cumulative probabilities. unsure data model (udm) [9] は肺結節の不確かさを学習するために提案され、この分類は累積確率の負対数を最適化する順序回帰問題であると考えている。 0.78
However, the UDM has some additional parameters that need to be carefully tuned. しかし、UDMには、慎重に調整する必要があるいくつかの追加パラメータがある。 0.50
The neural stickbreaking (NSB) method calculates the probabilities through the C − 1 predicted classification bounds, where C is the number of classes [10]. ニューラル・スティックブレイク法 (NSB) は、C がクラス数 [10] である C − 1 の予測分類境界によって確率を計算する。 0.82
The unimodal method makes each fully-connected output follows a unimodal distribution such as Poisson or Binomial [11]. ユニモーダル法は、各完全連結出力をポアソンやビノミアル[11]のような単モーダル分布に従わせる。
訳抜け防止モード: unimodal (複数形 unimodals) 各完全連結出力は、Poisson や Binomial [ 11 ] のような一様分布に従う。
0.74
However, these methods do not guarantee the strict ordinal relationship. しかし、これらの方法は厳密な順序関係を保証しない。 0.62
Recently, the convolutional ordinal regression forests (CORFs) aim at solving this problem through the combination of CNNs and random forests [12], which have been shown effective for lung nodule classification in a meta learning framework [13]. 近年,畳み込み順序回帰森林 (convolutional ordinal regression forests, corfs) は,メタ学習フレームワーク [13] において,肺結節分類に有効なcnnとランダム林 [12] の組み合わせにより,この問題を解決しようとしている。 0.89
In summary, the existing methods do not explicitly leverage the ordinal relationship resided in the data itself. 要約すると、既存のメソッドはデータ自体に存在する順序関係を明示的に利用しません。 0.63
In this paper, we assume that the ordinal relationship resides in not only the label but also the data itself. 本稿では,順序関係がラベルだけでなくデータ自体にも存在していると仮定する。 0.71
Put differently, the ordinal relationship of features from differ- 異なることに、特徴の順序関係は異なる。 0.72
𝒙𝒊Backbone Net (𝚯)MLP 1MLP 2MLP 3MCE Loss1 Benign2 Unsure3 Malignantℒ𝐂𝐄𝒊𝟏ℒ𝐂𝐄𝒊𝟐ℒ𝐂𝐄𝒊𝟑𝝎𝟏𝝎𝟐𝝎𝟑Soft maxParams. xiBackbone Net 1MLP 2MLP 3MCE Loss1 Benign2 Unsure3 MalignantLCEi1LCEi2L CEi3ω1ω2ω3Soft maxParams。 0.58
: 𝚽−-𝒄/𝟏𝑪𝝎𝒄𝒍𝒐𝒈4𝒑𝒄-𝒄/𝟏𝑪𝓛𝐂𝐄𝒊𝒄(𝚯∗(𝚽))Meta lossBackward for 𝚽only Backward for 𝚯onlyMOSTarget training/test sampleForward (Train)Forward (Test) 1Cωclog4pc-c/1CLCEic(*) Meta lossBackward for sonly Backward for sonlyMOSTarget training/test sampleForward (Train)Forward (Test) 0.78
英語(論文から抽出)日本語訳スコア
ent classes also dominates the generalization ability of the model. entクラスはモデルの一般化能力も支配している。 0.78
Therefore, we propose a meta ordinal weighting network (MOW-Net) to learn the ordinal regression between each training sample and a set of samples of all classes simultaneously, where this set is termed as meta ordinal set (MOS). そこで本研究では,メタオーディナル重み付けネットワーク (MOW-Net) を提案し,各トレーニングサンプルと全クラスのサンプル群の順序回帰を同時に学習し,この集合をメタオーディナル集合 (Meta Ordinal Set, MOS) と呼ぶ。 0.83
Here, the MOS implies the feature and semantic information of the dataset, and acts as the meta knowledge for the training sample. ここでは、MOSはデータセットの特徴と意味情報を意味し、トレーニングサンプルのメタ知識として機能します。 0.80
As shown in Fig. 1, each training sample relates to an MOS, and the meta samples in the MOS are mapped to the corresponding weights representing the meta knowledge of all classes. 図に示すように。 MOS.1の各トレーニングサンプルは、MOSに関連付けられ、MOSのメタサンプルは、全てのクラスのメタ知識を表す対応する重みにマッピングされる。 0.79
Furthermore, we propose a novel meta crossentropy (MCE) loss for the training of the MOW-Net; each term is weighted by the learned meta weight as shown in Fig. さらに、MOW-Netのトレーニングのための新しいメタエントロピー(MCE)損失を提案します。各用語は図に示すように学習したメタウェイトによって重み付けされます。 0.66
1. Different from the normal CE loss, the MCE loss indicates that the training sample is guided by the meta weights learned from the MOS. 1. 通常のCE損失と異なり、MCE損失はMOSから得られたメタ重量によってトレーニングサンプルが導かれることを示している。 0.84
Hence, the MOW-Net is able to boost the classification performance and generalization ability with the supervision from meta ordinal knowledge. したがって、MOW-Netはメタオーディショナルな知識から、分類性能と一般化能力を向上させることができる。 0.63
Moreover, our MOW-Net is able to reflect the difficulties of classification of all classes in the dataset, which will be analyzed in Sec.3.4. さらに、私たちのMOW-Netはデータセット内のすべてのクラスの分類の難しさを反映することができ、Sec.3.4で分析されます。 0.59
The main contributions of this work are summarized as follows. この作品の主な貢献は以下の通りである。 0.71
First, we propose a meta ordinal weighting network (MOW-Net) for lung nodule classification with unsure nodules. まず,不確定な結節を有する肺結節分類のためのメタオーディナル重み付けネットワーク(MOW-Net)を提案する。 0.72
The MOW-Net contains a backbone network for classification and a mapping branch for meta ordinal knowledge learning. MOW-Netには分類のためのバックボーンネットワークとメタ順序知識学習のためのマッピングブランチが含まれている。 0.66
Second, we propose a meta cross-entropy (MCE) loss for the training of the MOW-Net in a meta-learning scheme, which is based on a meta ordinal set (MOS) that contains a few training samples from all classes and provides the meta knowledge for the target training sample. 第2に,MOW-Netのトレーニングのためのメタクロスエントロピー(MCE)損失をメタラーニング方式で提案する。メタ順序セット(MOS)に基づいて,すべてのクラスのトレーニングサンプルをいくつか含み,ターゲットトレーニングサンプルのメタ知識を提供する。 0.79
Last, the experimental results demonstrate the significant performance improvements in contrast to the state-of-the-art ordinal regression methods. 最後に, 実験結果から, 最先端の順序回帰法とは対照的に, 有意な性能改善が示された。 0.57
In addition, the changes in learned meta weights reflect the difficulties of classifying each class. さらに、学習したメタウェイトの変化は、各クラスを分類する難しさを反映しています。 0.63
2. METHODOLOGY This section introduces the proposed meta ordinal set (MOS), meta cross-entropy (MCE) loss, and the meta training algorithm, respectively. 2. 方法論 本稿では,提案するメタ順序集合(MOS),メタクロスエントロピー(MCE)損失,メタトレーニングアルゴリズムを紹介する。
訳抜け防止モード: 2. 方法論 本項ではメタ順序集合(MOS)について紹介する。 meta cross - entropy (MCE ) Los, and the meta training algorithm,respective ly .
0.71
2.1. Meta Ordinal Set (MOS) 2.1. Meta Ordinal Set (MOS) 0.78
We assume that the ordinal relationship resides in not only the label but also the data itself. 順序関係はラベルだけでなくデータ自体にも存在していると仮定する。 0.66
Therefore, we align each target training sample with an MOS that contains K samples from each class. したがって,各クラスからのkサンプルを含むmosと,各ターゲットトレーニングサンプルを整合させる。 0.86
The MOS for i-th training sample is formally defined as follows: S meta i-th training sampleのMOSは、次のように正式に定義されている。 0.70
=(cid:8)xk =(cid:8)xk 0.88
(cid:9) c=1,...,C, k=1,...,K , (cid:9) c=1,...,c,k=1,...,k , 0.81
(1) c i where C is the number of the classes.Note that the samples in the S meta are not ordered, but the samples in one class should go to the corresponding multi-layer perceptron (MLP) (1) c 私は ここで C はクラスの数で、S メタのサンプルは順序付けされませんが、1 つのクラスのサンプルは対応する多層パーセプトロン (MLP) に移動する必要があります。 0.75
LMCE = − C(cid:88) LMCE = − C(cid:88) 0.94
in Fig. 1. Then the MPLs are able to learn the specific knowlc (c ∈ edge from each class. 図1。 1. すると MPL は各クラスから特定のノウルc (c ∈ edge) を学ぶことができる。 0.73
For a target training sample xi, xk {1, 2, . 対象のトレーニングサンプル xi に対して xk {1, 2, である。 0.78
. . , C}) is randomly sampled from the training set, and xi /∈ S meta . . , C}) はトレーニングセットからランダムにサンプリングされ、xi /∈ S メタである。 0.83
. i 2.2. Meta Cross-Entropy Loss . 私は 2.2. メタクロスエントロピー損失 0.70
In order to enable the MOW-Net to absorb the meta knowledge provided by the MOS, we propose an MCE loss to align the meta knowledge of each class to the corresponding entropy term: MOW-Net が MOS が提供するメタ知識を吸収できるようにするために、各クラスのメタ知識を対応するエントロピー用語に整合させる MCE 損失を提案します。 0.77
ωc log ˆpc, ωc log (複数形 ωc logs) 0.40
(2) c=1 where ˆpc and ωc are the prediction and the learned meta weight of the c-th class, respectively. (2) c=1 ここで ωc と ωc はそれぞれ c-階クラスの予測と学習されたメタウェイトである。 0.71
Note that the MCE loss implies no ordinal regression tricks such as cumulative probabilities, it only holds the correlation between the meta data and the predictions. MCEの損失は累積確率のような順序的回帰のトリックを含まないが、これはメタデータと予測の相関を保っているだけである。 0.72
Compared with the conventional CE loss, the MCE loss enables the training samples to be supervised by the corresponding meta data, hence, the learning of the MOW-Net takes into account the meta ordinal knowledge resided in the data itself. 従来のCE損失と比較して、MCE損失は、トレーニングサンプルが対応するメタデータによって監督されることを可能にするため、MOW-Netの学習は、データ自体に存在するメタ順序知識を考慮に入れます。 0.63
2.3. Training Algorithm 2.3. 訓練アルゴリズム 0.73
The MOW-Net is trained in the meta-learning scheme, which requires the second derivatives [14–18], and two parts of the parameters, Θ and Φ, to be updated alternatively. mow-net はメタラーニングスキームで訓練されており、2つ目の微分 [14–18] とパラメータ θ と φ の2つの部分を必要とする。
訳抜け防止モード: MOW - Netはメタ学習スキームで訓練されている。 第二の導関数 [14–18 ] とパラメーターの 2 つの部分, ~ ~ 代わりに更新することです
0.71
We highlight that the MOW-net offers a novel way of utilizing ordinal relationship encapsulated within the data itself; however, the model is still the same as the one trained with CE loss. mow-netはデータ自身にカプセル化された順序関係を利用する新しい方法を提供しているが、モデルはまだce損失で訓練されたものと同じである。 0.64
What’s more, our MOW-Net does not modify the classification head and can be adapted to various backbones. さらに、当社のmow-netは分類ヘッドを変更せず、さまざまなバックボーンに適応することができます。 0.63
Although the whole MOW-Net contains the two parts of parameters, Θ and Φ, the trained model discards the MLPs (Φ) at the inference stage. MOW-Net 全体はパラメータの 2 つの部分 , ~ を含むが、訓練されたモデルは推論段階で MLP ( ) を破棄する。 0.73
In other words, the MLPs are only involved in the meta training phase to produce the class specific knowledge. 言い換えれば、MLPはメタトレーニングフェーズにのみ関与し、クラス固有の知識を生成します。
訳抜け防止モード: 言い換えれば、MLPはメタトレーニングフェーズにのみ関与しています。 クラスの特定の知識を作り出すため。
0.76
Then the optimal Θ is learned by minimizing the following objective function: 次に、次の目的関数を最小化することで最適なθを学習する。 0.65
Θ∗(Φ) = arg min θ∗(φ) = arg min 0.74
LMCE(Θ; Φ) = LMCE(s) = LMCE(s) = LMCE 0.64
Li MCE (3) Θ 李 MCE (3) Θ 0.81
= − 1 N N = − 1 である。 0.66
N(cid:88) C(cid:88) N(cid:88) C(cid:88) 0.84
i=1 c=1 (cid:124) i=1 c=1 (cid:124) 0.65
Vc(Li,c CE(Θ); Φ) Vc(Li,c) CE (複数形 CEs) 0.77
· log ˆpi,c(Θ), ·log spi,c(θ) である。 0.73
1 N N(cid:88) (cid:125) 1N N(cid:88) (cid:125) 0.79
i=1 (cid:123)(cid:122) i=1 (cid:123)(cid:122) 0.67
ωc where Li,c CE denotes the conventional CE loss of the c-th meta data with respect to the i-th training sample, and Vc is the c-th MLP with Li,c ωc ここで Li,c CE は i 番目のトレーニングサンプルに対する c 番目のメタデータの従来の CE ロスを表し、Vc は Li,c の c 番目の MLP である。 0.78
CE being the input (Fig. CE は入力(図)です。 0.73
1). Following [14], Φ can be updated through the following 1). 14]以降は、以下の方法で更新することができます。 0.79
英語(論文から抽出)日本語訳スコア
objective function: Φ∗ = arg min 目的機能: φ∗ = arg min 0.74
Φ 1 M M(cid:88) Φ 1M M(cid:88) 0.82
C(cid:88) j=1 C(cid:88) j=1 0.71
c=1 Lj,c CE(Θ∗(Φ)), c=1 lj,cce(θ∗(φ)) 0.54
(4) where M = C × K is the size of the MOS. (4) ここで M = C × K は MOS のサイズである。 0.86
Then we update these two parts of parameters alternatively using metalearning [14, 15]. 次にメタラーニング [14, 15] を用いてこの2つのパラメータを更新する。 0.74
First, we calculate the derivative of Θ through Eq. まず、eq を通じて θ の微分を計算する。 0.67
(3): (cid:98)Θ(t) = Θ(t) − α (3): (cid:98)θ(t) = θ(t) − α 0.88
N N(cid:88) N N(cid:88) 0.85
C(cid:88) i=1 C(cid:88) i=1 0.71
c=1 (cid:124) c=1 (cid:124) 0.69
Vc(Li,c CE(Θ); Φ) Vc(Li,c) CE (複数形 CEs) 0.77
∇Θ log ˆpi,c(Θ)|Θ(t) . c(θ)|θ(t) である。 0.48
(cid:123)(cid:122) (cid:123)(cid:122) 0.75
ωc (cid:125) ωc (cid:125) 0.78
Algorithm 1 Training Algorithm of MOW-Net. アルゴリズム1 MOW-Net の学習アルゴリズム 0.80
Input: Training data S tr, randomly sampled MOS S meta. 入力:トレーニングデータS tr、ランダムにサンプリングされたMOS Sメタ。 0.79
Output: The learned parameter Θ(T−1). 出力: 学習したパラメータ(T−1)。 0.85
1: Initialize Θ(0) and Φ(0). 1: θ(0) と φ(0) を初期化する。 0.71
2: for t = 0 to T − 1 do 3: xi with a MOS S meta 2: t = 0 to T − 1 do 3: xi with a MOS S meta 0.80
Sample a mini-batch of xi from S tr, and align each s tr から xi のミニバッチをサンプリングし、それぞれを整列する 0.74
. i 4: 5: . 私は 4: 5: 0.77
6: 7: 8: tain ˆpi,c and ωmeta 6: 7: 8: テン・イピ,cとωmeta 0.79
Forward: input xi and Smeta respectively. フォワード: xi と Smeta をそれぞれ入力する。 0.75
Compute the first order derivative (cid:98)Θ(t)(Φ(t)) by with (cid:98)Θ(t)(Φ(t)), then obtain 一階微分 (cid:98)θ(t)(φ(t)) を (cid:98)θ(t)(φ(t)) で計算し、それを得る。 0.77
with Θ(t)(Φ(t)) to ob- θ(t)(φ(t)) から ob- への変換 0.56
Eq. (5). Forward: input S meta the meta CE losses Li meta eqだ (5). Forward: input S meta the meta CE loss Li meta 0.79
i,c . i i i.c. . 私は 私は 0.66
CE Update Φ(t+1) by Eq. CE 更新はEq.com(t+1)。 0.76
(6). Forward: input xi with Θ(t)(Φ(t+1)) and calculate CE ; then input Li tr CE into all the MLPs to obtain the (6). forward: θ(t)(φ(t+1)) で入力 xi を入力し ce を計算し、li tr ce をすべての mlp に入力して取得する。 0.78
Next, Φ(t+1) can be updated as follows: 次に、次のように更新することができます。 0.62
M(cid:88) C(cid:88) M(cid:88) C(cid:88) 0.84
j=1 c=1 CE((cid:98)Θ(Φ))|Φ(t) . j=1 c=1 CE((cid:98))|(t) です。 0.60
∇ΦLj,c the Li tr c . ~Lj,c Li tr c。 0.69
ωtr 9: 10: end for ωtr 9:10:終了します。 0.75
Φ(t+1) = Φ(t) − β s(t+1) = s(t) − β 0.92
1 M Update Θ(t+1) by Eq. 1M θ(t+1) を eq で更新する。 0.74
(7). (5) (6) (7). (5) (6) 0.85
N(cid:88) i=1 N(cid:88) i=1 0.71
Last, Θ(t+1) is updated based on the Φ(t+1): 最後に、 t(t+1) は t(t+1) に基づいて更新される。 0.69
Θ(t+1) = Θ(t) − α θ(t+1) = θ(t) − α 0.90
1 N ∇ΘLi MCE(Θ; Φ(t+1))|Θ(t) . 1N 「李」 mce(θ; φ(t+1))|θ(t) である。 0.60
(7) In the above equations, the superscript (t) represents the t-th iteration during training, α and β are the learning rates for Θ and Φ, respectively. (7) 上記の方程式では、スーパースクリプト (t) は訓練中のt番目の反復を表し、α と β はそれぞれθ と φ の学習率である。 0.79
The training algorithm is detailed in Algorithm 1. 訓練アルゴリズムはアルゴリズム1で詳述される。 0.78
Note that after updating Φ(t+1) (line 8 in the Algorithm 1), the MOW-Net obtains the meta knowledge through taking the normal CE loss of the training sample as the input to all MLPs. φ(t+1)(アルゴリズム1のライン8)を更新すると、mow-netはトレーニングサンプルの通常のce損失を全てのmlpへの入力として取り込んでメタ知識を得る。 0.67
Here, we can regard the updated MPLs as the prior knowledge for each ordinal class. ここでは、更新されたMPLを各順序クラスに関する以前の知識と見なすことができます。 0.59
To further analyze Eq. Eqをさらに分析する。 0.86
(6), we can obtain: (6)、我々は得ることができます。 0.62
Φ(t+1) = Φ(t)+ (t+1) = (t)+) 0.81
N(cid:88) (cid:34) ∂(cid:80)C N(cid:88) (cid:34) (cid:80)C 0.84
i=1 ( ∂(cid:80)C M(cid:88) c=1 Vc(Li,c CE(Θ(t)); Φ) 1 (cid:35)T CE((cid:98)Θ) M ∂Φ ∂(cid:98)Θ c=1 Lj,c i=1 ( ∂(cid:80)C M(cid:88) c=1 Vc(Li,c CE(sh(t)); s) 1 (cid:35)T CE((cid:98)) M ∂ ∂(cid:98) = c=1 Lj,c 0.78
· ∂(cid:80)C · ∂(cid:80)C 0.92
|(cid:98)Θ(t) |(cid:98)θ(t) 0.92
Gij) ∂Θ j=1 c=1 log ˆpi,c(Θ) ジ) ∂Θ j=1 c=1 log (複数形 c=1 logs) 0.68
(8) |Φ(t) , (8) |φ(t) , 0.84
αβ N Gi,j = αβ N Gi,j = 0.87
|Θ(t). (9) 略称は「t」。 (9) 0.61
We can see that Eq. (9) denotes the derivative of the entropy of the training sample (2nd term) is to approach the derivative of the MOS (1st term). Eqが見られます。 (9)は、トレーニングサンプル(第2期)のエントロピーの誘導体は、MOSの誘導体に近づくことである(第1期)。 0.64
This implies that the learning of the backbone network is guided by the meta knowledge. これは、バックボーンネットワークの学習がメタ知識によって導かれることを意味する。 0.76
Please refer to http://hmshan.io/pap ers/ mow-net-supp.pdf for the detailed derivation. 詳細は http://hmshan.io/pap ers/ mow-net-supp.pdf を参照してください。 0.49
3. EXPERIMENTS In this section, we report the classification performance of our MOW-Net on the dataset LIDC-IDRI [19]. 3. 実験 本稿では, LIDC-IDRI [19] を用いたMOW-Netの分類性能について報告する。 0.67
3.1. Dataset 3.1. データセット 0.66
LIDC-IDRI is a publicly available dataset for low dose CTbased lung nodule analysis, which includes 1,010 patients. LIDC-IDRIは、1,010人の患者を含む低用量CTベースの肺結節分析のための公開データセットです。 0.68
Each nodule was rated on a scale of 1 to 5 by four thoracic radiologists, indicating an increased probability of malignancy. 各結節は、4つの胸部放射線科医によって1から5の尺度で評価され、悪性の確率が増加した。 0.60
In this paper, the ROI of each nodule was cropped at its annotated center, with a square shape of a doubled equivalent diameter. 本報告では,各結節のroiを注記した中心に切り刻み,2倍の直径の正方形とした。 0.72
An averaged score of a nodule was used as groundtruth for the model training. モデルトレーニングでは,結節の平均スコアを基礎として用いた。 0.64
All volumes were resampled to have 1mm spacing (original spacing ranged from 0.6mm to 3.0mm) in each dimension, and the cropped ROIs are of the size 32× 32× 32. 全巻が1mm間隔(元の間隔は0.6mmから3.0mm)で再サンプリングされ、切り抜かれたロワの大きさは32×32×32である。 0.66
The averaged scores range from 1 to 5, and in our experiments, we regard a nodule with a score between 2.5 and 3.5 as the unsure nodule; benign and malignant nodules are those with scores lower than 2.5 and higher than 3.5, respectively [9]. 平均スコアは1から5の範囲で, 実験では2.5から3.5までの結節を不確実結節とみなし, 良性結節と悪性結節はそれぞれ2.5未満, 3.5以上の結節である[9]。 0.67
3.2. Implementation Details We used the VGG-16 as the backbone network [20], and made the following changes: 1) the input channel is 32 following [4]; 2) we only keep the first seven convolutional layers due to a small size of the input, each followed by the batch normalization (BN) and ReLU; and 3) the final classifier is a two-layer perceptron that has 4096 neurons in hidden layer. 3.2. 実施内容 我々は,vgg-16をバックボーンネットワーク [20] として使用し,(1) 入力チャネルが[4] に続く32 個であること,(2) 入力の小さいため,最初の 7 つの畳み込み層のみが保持されること,(3) バッチ正規化 (bn) と relu が続くこと,3) 最終分類器は隠れ層に 4096 個のニューロンを持つ2層パーセプトロンである。 0.63
We use 80% of data for training and the remaining data for testing. トレーニングには80%のデータ、テストには残りのデータを使用します。 0.77
The hyperparameters for all experiments are set as follows: the learning rate is 0.0001 and decayed by 0.1 for every 80 epochs; the mini-batch size is 16; weight decay for Adam optimizer is 0.0001 [21]. すべての実験のハイパーパラメータは、学習速度が0.0001で80エポックごとに0.1で崩壊し、ミニバッチサイズが16でadamオプティマイザの重量が0.0001[21]である。 0.74
The symbols P, R, and F1 in our results stand for precision, recall, and F1 score, respectively [9]. 私たちの結果の記号P、R、F1は、それぞれ精度、リコール、F1スコアを表しています[9]。 0.73
英語(論文から抽出)日本語訳スコア
Table 1. Results of classification on LIDC-IDRI dataset. 表1。 LIDC-IDRIデータセットの分類結果 0.78
Following [9], the values with underlines indicate the best results while less important in the clinical diagnosis. 9] に従えば, 臨床診断では重要度は低いものの, 下線値が最も良い結果を示す。 0.86
Malignant F1 0.596 0.648 0.601 0.635 0.608 0.592 0.670 0.688 悪性 F1 0.596 0.648 0.601 0.635 0.608 0.592 0.670 0.688 0.51
P 0.562 0.568 0.566 0.712 0.704 0.558 0.600 0.668 P 0.562 0.568 0.566 0.712 0.704 0.558 0.600 0.668 0.64
R 0.495 0.624 0.594 0.515 0.495 0.851 0.802 0.705 R 0.495 0.624 0.594 0.515 0.495 0.851 0.802 0.705 0.64
F1 0.526 0.594 0.580 0.598 0.581 0.675 0.686 0.686 F1 0.526 0.594 0.580 0.598 0.581 0.675 0.686 0.686 0.44
P 0.456 0.489 0.527 0.474 0.476 0.600 0.642 0.606 P 0.456 0.489 0.527 0.474 0.476 0.600 0.642 0.606 0.64
Method Accuracy CE Loss 方法 正確性 CE損失 0.73
Poisson [11] NSB [10] UDM [9] CORF [12] Poisson [11] NSB [10] UDM [9] CORF [12] 0.85
MOW-Net (k = 1) MOW-Net (k = 5) MOW-Net (k = 10) MOW-Net (k = 1) MOW-Net (k = 5) MOW-Net (k = 10) 0.89
0.517 0.542 0.553 0.548 0.559 0.629 0.672 0.687 0.517 0.542 0.553 0.548 0.559 0.629 0.672 0.687 0.42
P 0.538 0.548 0.565 0.541 0.590 0.752 0.764 0.768 P 0.538 0.548 0.565 0.541 0.590 0.752 0.764 0.768 0.64
Benign R 0.668 0.794 0.641 0.767 0.627 0.489 0.596 0.623 ベニグ R 0.668 0.794 0.641 0.767 0.627 0.489 0.596 0.623 0.57
Unsure R 0.360 0.220 0.435 0.320 0.515 0.675 0.690 0.792 不明 R 0.360 0.220 0.435 0.320 0.515 0.675 0.690 0.792 0.62
F1 0.402 0.303 0.476 0.382 0.495 0.635 0.665 0.687 F1 0.402 0.303 0.476 0.382 0.495 0.635 0.665 0.687 0.44
Fig. 2. The visualization results on the testing set using t-SNE. フィギュア。 2. t-SNEを用いたテストセットの可視化結果。 0.65
Fig. 3. The variations of the learned weights for all classes. フィギュア。 3. すべてのクラスにおける学習重みの変動。 0.67
3.3. Classification Performance In our experiments, we mainly focus on the precision of benign class, recall of malignant and unsure classes [9]. 3.3. 分類性能 実験では,良性授業の精度,悪性度,不確実性の授業の思い出[9]に焦点を当てた。 0.73
We compared our MOW-Net with the state-of-the-art ordinal regression methods and the normal CE loss. MOW-Netと最先端の経口回帰法と通常のCE損失を比較しました。 0.61
In Table 1, we can see that the MOW-Net achieves the best accuracy by a large margin against other methods. 表1では、MOW-Netが他の手法に比べて大きなマージンで最高の精度を達成することが分かる。 0.69
Specifically, the MOWNet significantly improves the recall of the unsure class by 0.28 over the previous best result. 具体的には、mownetは以前のベスト結果よりもunsureクラスのリコールを0.08で大幅に改善する。 0.52
This is significant for the clinical diagnosis since a higher recall of the unsure class can encourage more follow-ups and reduce the probabilities of the nodules that are misdiagnosed as malignant or benign. 悪性または良性と誤診された結節の確率を低下させるため、不審クラスを高くリコールすることで、さらなるフォローアップを促すことができるため、臨床診断において重要である。 0.56
In addition, the precision of benign and the recall of the malignant get a great improvement. さらに良性の正確さと悪性腫瘍のリコールも改善されている。 0.56
on classifying the unsure class from the other two classes, and the malignant class is an easy-classified class. 他の2つのクラスからunsureクラスを分類する際、悪性クラスは簡単に分類できるクラスです。 0.78
Then, at epoch 10, the trends of these two weights become opposite. そして、エポック10では、この2つの重みの傾向が逆になる。 0.63
The curve of the benign fluctuates slightly through the whole training process. 良性の曲線はトレーニングプロセス全体を通してわずかに変動する。 0.82
At epoch 45, the weights for all the three classes begin to converge. epoch 45では、3つのクラスの重みが収束し始める。 0.74
This indicates that the model pays different attentions (weights) to different classes, and these attentions affect the update of the backbone network. これは、モデルが異なるクラスに異なる注意(重み)を払い、これらの注意がバックボーンネットワークの更新に影響を与えることを示しています。 0.67
At the end of the training, the model has similar sensitivities for each class. トレーニングの最後には、モデルは各クラスに類似した感度を持つ。 0.71
Together with Fig. 2, the malignant samples are easier to be classified than the other two classes at the beginning. figと共に。 2つは、悪性のサンプル最初に他の2つのクラスより分類され易いです。 0.67
At epoch 10, the unsure samples are fused with other samples severely so that it has the highest weight. エポック10では、不確実なサンプルは他のサンプルと激しく融合し、最も重い重量になる。 0.62
Simultaneously, the malignant class performs worse than that at the beginning. 同時に、悪性クラスは初めのそれよりも悪いパフォーマンスを発揮します。 0.65
As the training continues, the weight for the malignant began to increase. トレーニングが進むにつれて、悪性腫瘍の体重が増加し始めた。 0.67
At epoch 45, the malignant samples are clustered again and the unsure samples are more centralized than that of the previous epochs. エポック45では、悪性サンプルは再びクラスタ化され、不確実サンプルは以前のエポックよりも集中的である。 0.61
At epoch 97, the model achieves the best accuracy, and it is obvious that the samples are distributed orderly, which demonstrates the effectiveness of the meta ordinal set. epoch 97では, モデルが最も精度が高く, サンプルが順に分布していることが明らかであり, メタ順序集合の有効性を示す。 0.78
3.4. Analysis on Learned Weights 3.4. 学習重量の分析 0.73
In order to further understand the weighting scheme of the MOW-Net, we plot the variations of the weights in LMCE in Fig. MOW-Netの重み付けスキームをさらに理解するために、図中のLMCEの重みの変動をプロットします。 0.62
3. At the beginning of the training, the weight for the unsure class is increasing while the weight for the malignant class is decreasing, indicating that the MOW-net focuses 3. トレーニング開始時点では,悪性クラスの体重が減少する一方,不確実クラスの体重が増加し,MOW-netが焦点を絞っていることを示す。 0.78
The definition of the MOS in Eq. MOSはEqで定義されている。 0.87
(1) shows that the parameter K determines the number of samples of each class. 1) パラメータKが各クラスのサンプル数を決定することを示します。 0.76
Here, we explore the effect of varied K. Table 1 shows that when K = 10, the MOW-Net obtained the best performance. ここでは、K = 10 のとき、MOW-Net が最高の性能を得たことを表1に示します。 0.69
The performance of K = 5 and K = 10 is better than that of K = 1, which indicates that the more number in MOS, the K = 5 と K = 10 のパフォーマンスは K = 1 よりも優れています。
訳抜け防止モード: K = 5 と K = 10 の性能は K = 1 よりも優れている。 これは、MOS の数が多ければ多いほど、
0.85
3.5. Effects on the Size of MOS 3.5. MOSのサイズが及ぼす影響 0.75
英語(論文から抽出)日本語訳スコア
better generalizability of the model. モデルの一般化性の向上です 0.69
4. CONCLUSIONS 4. コンキュレーション 0.67
In this paper, we proposed an MOW-Net and the corresponding MOS to explore the ordinal relationship resided in the data itself for lung nodule classification in a meta-learning scheme. 本論文では,MOW-Netとそれに対応するMOSを提案し,メタラーニング方式で肺結節分類のためのデータ自体に存在する順序関係を検討した。 0.76
The experimental results empirically demonstrate a significant improvement compared to existing methods. 実験結果は既存の方法と比較して有意な改善を実証した。 0.66
The visualization results further confirm the effectiveness of the weighting scheme and the learned ordinal relationship. 可視化結果は、重み付け方式と学習順序関係の有効性をさらに確認する。 0.67
5. REFERENCES [1] A. 5. 参考 [1] A。 0.70
A. A. Setio, F. Ciompi, G. Litjens et al., “Pulmonary nodule detection in CT images: false positive reduction using multi-view convolutional networks,” IEEE Transactions on Medical Imaging, vol. A。 A. Setio, F. Ciompi, G. Litjens et al., “CT画像の肺結節検出:マルチビュー畳み込みネットワークを用いた偽陽性化”, IEEE Transactions on Medical Imaging, vol。 0.79
35, no. 5, pp. 35だ 5, pp。 0.59
1160– 1169, 2016. 1160– 1169, 2016. 0.99
[2] S. Hussein, R. Gillies, K. Cao, Q. [2] S. Hussein, R. Gillies, K. Cao, Q。 0.95
Song, and U. Bagci, “TumorNet: Lung nodule characterization using multiview convolutional neural network with Gaussian process,” in 2017 IEEE 14th International Symposium on Biomedical Imaging (ISBI), 2017, pp. Song, and U. Bagci, “TumorNet: Lung nodule Characterization using multiview convolutional neural network with Gaussian process” in 2017 IEEE 14th International Symposium on Biomedical Imaging (ISBI), 2017 pp。
訳抜け防止モード: Song, and U. Bagci, “tumorNet : Lung nodule Characterization using multiview convolutional neural network with Gaussian process” 2017年IEEE 14th International Symposium on Biomedical Imaging (ISBI) に参加して 2017年、p。
0.90
1007–1010. 1007–1010. 0.71
[3] H. Shan, G. Wang, M. K. Kalra, R. de Souza, and J. Zhang, “Enhancing transferability of features from pretrained deep neural networks for lung nodule classification,” in The Proceedings of the 2017 International Conference on Fully Three-Dimensional Image Reconstruction in Radiology and Nuclear Medicine (Fully3D), 2017, pp. [3] h. shan, g. wang, m. k. kalra, r. de souza, j. zhang, "enhancing transferability of features from pretrained deep neural networks for lung nodule classification", in the proceedings of the 2017 international conference on full three-dimensional image reconstruction in radiology and nuclear medicine (fully3d), 2017 pp. (英語) 0.89
65–68. [4] Y. Lei, Y. Tian, H. Shan, J. Zhang, G. Wang, and M. K. Kalra, “Shape and margin-aware lung nodule classification in low-dose CT images via soft activation mapping,” Medical Image Analysis, vol. 65–68. Y. Lei, Y. Tian, H. Shan, J. Zhang, G. Wang, M. K. Kalra, “ソフトアクティベーションマッピングによる低用量CT画像のシェープとマージンを意識した肺結節分類”、とMedicical Image Analysisは述べている。 0.78
60, p. 101628, 2020. 60, p. 101628, 2020。 0.91
[5] Q. Zhang, J. Zhou, and B. Zhang, “A noninvasive method to detect diabetes mellitus and lung cancer using the stacked sparse autoencoder,” in ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. [5] Q. Zhang, J. Zhou, and B. Zhang, "A noninvasive method to detect diabetes mellitus and lung cancer using the stacked sparse autoencoder" in ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp。
訳抜け防止モード: 5 ] Q.Zhang、J.Zhou、およびB.Zhang。 積み重ねられたスパースオートエンコーダを用いた糖尿病と肺癌の非侵襲的検出法」 ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech (英語) そして信号の処理(ICASSP)、2020年、PP。
0.83
1409–1413. 1409–1413. 0.71
[6] Y. Li, D. Gu, Z. Wen, F. Jiang, and S. Liu, “Classify and explain: An interpretable convolutional neural network for lung cancer diagnosis,” in ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 2020, pp. [6] Y. Li, D. Gu, Z. Wen, F. Jiang, and S. Liu, "Classify and explain: an interpretable convolutional neural network for lung cancer diagnosis" (英語) 0.93
1065–1069. 1065–1069. 0.71
[7] F. Li, H. Huang, Y. Wu, C. Cai, Y. Huang, and X. Ding, “Lung nodule detection with a 3D convnet via iou selfnormalization and maxout unit,” in ICASSP 2019-2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2019, pp. F. Li, H. Huang, Y. Wu, C. Cai, Y. Huang, X. Ding, “Lung nodule detection with a 3D convnet via iou selfnormalization and maxout unit” in ICASSP 2019-2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2019, pp. 0.86
1214–1218. 1214–1218. 0.71
[8] R. Xu, Z. Cong, X. Ye, Y. Hirano, and S. Kido, “Pulmonary textures classification using a deep neural network with appearance and geometry cues,” in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2018, pp. 2018年IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 2018 pp. [8] R. Xu, Z. Cong, X. Ye, Y. Hirano, and S. Kido, "Pulmonary textures classification using a deep neural network with appearance and Geometry cues" (英語) 0.87
1025–1029. 1025–1029. 0.71
[9] B. Wu, X. [9] B. Wu, X。 0.89
Sun, L. Hu, and Y. Wang, “Learning with unsure data for medical image diagnosis,” in Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2019, pp. Sun, L. Hu, and Y. Wang, “Learning with unsure data for medical image diagnosis” in Proceedings of the IEEE International Conference on Computer Vision (ICCV) 2019, pp。 0.82
10 590–10 599. 10 590–10 599. 0.84
[10] X. Liu, Y. Zou, Y. [10]X.Liu,Y.Zou,Y。 0.80
Song, C. Yang, J. Song, C. Yang, J。 0.92
You, and B. K Vijaya Kumar, “Ordinal regression with neuron stickbreaking for medical diagnosis,” in Proceedings of the European Conference on Computer Vision (ECCV), 2018, pp. You, and B.K Vijaya Kumar, “Ordinal regression with neuron stickbreaking for medical diagnosis” in Proceedings of the European Conference on Computer Vision (ECCV), 2018 pp。 0.74
335–344. [11] C. Beckham and C. Pal, “Unimodal probability distributions for deep ordinal classification,” arXiv preprint arXiv:1705.05278, 2017. 335–344. 11] C. Beckham and C. Pal, “Unimodal probability distributions for Deep Ordinal classification” arXiv preprint arXiv:1705.05278, 2017 0.81
[12] H. Zhu, Y. Zhang, H. Shan, L. Che, X. Xu, J. Zhang, J. Shi, and F.-Y. 12] H. Zhu、Y. Zhang、H. Shan、L. Che、X. Xu、J. Zhang、J. Shi、およびF.Y。 0.81
Wang, “Convolutional ordinal regression forest for image ordinal estimation,” IEEE Transactions on Neural Networks and Learning Systems, 2021. Wang, “Convolutional Ordinal regression forest for image Ordinal Estimation”, IEEE Transactions on Neural Networks and Learning Systems, 2021。 0.73
[13] Y. Lei, H. Zhu, J. Zhang, and H. Shan, “Meta ordinal regression forest for learning with unsure lung nodules,” in 2020 IEEE International Conference on Bioinformatics and Biomedicine (BIBM), 2020, pp. [13] y. lei, h. zhu, j. zhang, and h. shan, "meta ordinal regression forest for learning with unsure lung nodules" in 2020 ieee international conference on bioinformatics and biomedicine (bibm), 2020, pp。 0.76
442–445. [14] J. Shu, Q. Xie, L. Yi, Q. Zhao, S. Zhou, Z. Xu, and D. Meng, “Meta-weight-net: Learning an explicit mapping for sample weighting,” in Advances in Neural Information Processing Systems (NeurIPS), 2019, pp. 442–445. J. Shu, Q. Xie, L. Yi, Q. Zhao, S. Zhou, Z. Xu, D. Meng, “Meta-weight-net: Learning an explicit mapping for sample weighting” in Advances in Neural Information Processing Systems (NeurIPS, 2019, pp。 0.79
1919–1930. 1919–1930. 0.71
[15] S. Liu, A. Davison, and E. Johns, “Self-supervised generalisation with meta auxiliary learning,” in Advances in Neural Information Processing Systems (NeurIPS), 2019, pp. 15] S. Liu, A. Davison, E. Johns, "Self-supervised generalization with meta assistant learning" in Advances in Neural Information Processing Systems (NeurIPS), 2019, pp. 2019, pp。 0.90
1679–1689. 1679–1689. 0.71
[16] R. Vuorio, S.-H. Sun, H. Hu, and J. J. Lim, “Multimodal model-agnostic meta-learning via task-aware modulation,” in Advances in Neural Information Processing Systems (NeurIPS), 2019, pp. 16] R. Vuorio, S.-H. Sun, H. Hu, J. J. Lim, "Multimodal model-agnostic meta-learning via task-aware modulation" in Advances in Neural Information Processing Systems (NeurIPS), 2019, pp。 0.94
1–12. [17] C. Finn, P. Abbeel, and S. Levine, “Model-agnostic meta-learning for fast adaptation of deep networks,” arXiv preprint arXiv:1703.03400, 2017. 1–12. C. Finn, P. Abbeel, S. Levine, “Model-Agnostic meta-learning for fast adaptation of deep network” arXiv preprint arXiv:1703.03400, 2017 0.82
[18] M. A. Jamal and G.-J. 18] M. A. Jamal および G.-J。 0.85
Qi, “Task agnostic meta-learning for few-shot learning,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019, pp. Qi, “Task agnostic meta-learning for few-shot learning” in Proceedings on the IEEE Vision and Pattern Recognition (CVPR), 2019, pp。 0.75
11 719–11 727. 11 719–11 727. 0.84
[19] S. G. Armato III, G. McLennan, L. Bidaut et al., “The lung image database consortium (LIDC) and image [19]S.G.Armato III,G. McLennan,L. Bidautら, “The lung image database consortium (LIDC) and image 0.88
英語(論文から抽出)日本語訳スコア
database resource initiative (IDRI): A completed reference database of lung nodules on CT scans,” Medical Physics, vol. データベースリソースイニシアチブ(IDRI):CTスキャンによる肺結節の完全な参照データベース。
訳抜け防止モード: データベースリソースイニシアチブ(IDRI) : CTスキャンにおける肺結節の完全な参照データベース」 医学物理学博士。
0.73
38, no. 2, pp. 915–931, 2011. 38だ 2、p。 915–931, 2011. 0.62
[20] K. Simonyan and A. Zisserman, “Very deep convolutional networks for large-scale image recognition,” in International Conference on Learning Representations (ICLR), 2015, pp. 20] k. simonyan, a. zisserman, “very deep convolutional networks for large-scale image recognition” in international conference on learning representations (iclr), 2015 pp。 0.74
1–14. [21] D. P. Kingma and J. Ba, “Adam: A method for stochastic 1–14. 21] D. P. KingmaとJ. Ba, “Adam: a method for stochastic” 0.82
optimization,” arXiv preprint arXiv:1412.6980, 2014. arXiv preprint arXiv:1412.6980, 2014”。 0.90
             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。