論文の概要: MVCNet: Multiview Contrastive Network for Unsupervised Representation
Learning for 3D CT Lesions
- arxiv url: http://arxiv.org/abs/2108.07662v1
- Date: Tue, 17 Aug 2021 14:47:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 13:29:10.699301
- Title: MVCNet: Multiview Contrastive Network for Unsupervised Representation
Learning for 3D CT Lesions
- Title(参考訳): MVCNet:3次元CT病変の教師なし表現学習のためのマルチビューコントラストネットワーク
- Authors: Penghua Zhai, Huaiwei Cong, Gangming Zhao, Chaowei Fang, Jinpeng Li
- Abstract要約: 自己教師付き学習は、表現を学習するための効果的なアプローチであるが、その多くは変換とプレテキストタスクの実証的な設計に依存している。
トランスフォーメーションフリーで動作する新しい教師なし3次元表現学習手法であるMVCNetを提案する。
実験の結果,MVCNetはLIDC-IDRI,LNDb,TianChiのデータセット上で,最先端の精度を実現していることがわかった。
- 参考スコア(独自算出の注目度): 6.6735028680691455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the renaissance of deep learning, automatic diagnostic systems for
computed tomography (CT) have achieved many successful applications. However,
they are mostly attributed to careful expert annotations, which are often
scarce in practice. This drives our interest to the unsupervised representation
learning. Recent studies have shown that self-supervised learning is an
effective approach for learning representations, but most of them rely on the
empirical design of transformations and pretext tasks. To avoid the
subjectivity associated with these methods, we propose the MVCNet, a novel
unsupervised three dimensional (3D) representation learning method working in a
transformation-free manner. We view each 3D lesion from different orientations
to collect multiple two dimensional (2D) views. Then, an embedding function is
learned by minimizing a contrastive loss so that the 2D views of the same 3D
lesion are aggregated, and the 2D views of different lesions are separated. We
evaluate the representations by training a simple classification head upon the
embedding layer. Experimental results show that MVCNet achieves
state-of-the-art accuracies on the LIDC-IDRI (89.55%), LNDb (77.69%) and
TianChi (79.96%) datasets for unsupervised representation learning. When
fine-tuned on 10% of the labeled data, the accuracies are comparable to the
supervised learning model (89.46% vs. 85.03%, 73.85% vs. 73.44%, 83.56% vs.
83.34% on the three datasets, respectively), indicating the superiority of
MVCNet in learning representations with limited annotations. Code is released
at: https://github.com/penghuazhai/MVCNet.
- Abstract(参考訳): ディープラーニングのルネッサンスにより,CT(Computed Tomography)の自動診断システムが多くの応用に成功している。
しかし、それらは主に注意深い専門家のアノテーションによるもので、実際は少ないことが多い。
これにより、教師なし表現学習への関心が高まります。
近年の研究では、自己指導型学習が表現の学習に有効なアプローチであることが示されているが、そのほとんどは変換やプレテキストタスクの実証的な設計に依存している。
これらの手法に付随する主観性を避けるため、mvcnet は変換不要な新しい教師なし三次元(3次元)表現学習手法である。
各3d病変を異なる方向から観察し,複数の2次元 (2d) ビューを収集する。
そして、同じ3D病変の2Dビューを集約し、異なる病変の2Dビューを分離するように、コントラスト損失を最小限にして埋め込み関数を学習する。
埋め込み層上に単純な分類ヘッドを訓練することで表現を評価する。
実験の結果、MVCNetはLIDC-IDRI (89.55%)、LNDb (77.69%)、TianChi (79.96%)のデータセットで、教師なし表現学習のための最先端の精度を実現している。
ラベル付きデータの10%を微調整すると、アキュラシーは教師付き学習モデル(89.46%対85.03%、73.85%対73.44%、83.56%対83.34%)に匹敵する。
https://github.com/penghuazhai/mvcnet。
関連論文リスト
- HomE: Homography-Equivariant Video Representation Learning [62.89516761473129]
マルチビュービデオの表現学習のための新しい手法を提案する。
提案手法は異なる視点間の暗黙的なマッピングを学習し,近隣の視点間のホモグラフィ関係を維持する表現空間を決定づける。
動作分類では,UCF101データセットの96.4%の3倍精度が得られた。
論文 参考訳(メタデータ) (2023-06-02T15:37:43Z) - Unsupervised Representation Learning in Partially Observable Atari Games [10.299850596045395]
状態表現学習は、環境の潜伏要因を捉えることを目的としている。
コントラスト法は,従来の状態表現学習研究において,生成モデルよりも優れていた。
本稿では、部分的に観測可能な状態に対する教師なし状態表現学習スキームを作成する。
論文 参考訳(メタデータ) (2023-03-13T19:34:10Z) - CLIP2Scene: Towards Label-efficient 3D Scene Understanding by CLIP [55.864132158596206]
Contrastive Language-Image Pre-Training (CLIP) は、2次元ゼロショットおよび少数ショット学習において有望な結果をもたらす。
私たちは,CLIP知識が3Dシーン理解にどう役立つか,最初の試みを行う。
筆者らは,CLIPの知識を2次元画像テキスト事前学習モデルから3次元ポイント・クラウド・ネットワークに転送するフレームワークであるCLIP2Sceneを提案する。
論文 参考訳(メタデータ) (2023-01-12T10:42:39Z) - Let Images Give You More:Point Cloud Cross-Modal Training for Shape
Analysis [43.13887916301742]
本稿では、ポイントクラウド分析を促進するために、シンプルだが効果的なポイントクラウドクロスモダリティトレーニング(PointCMT)戦略を導入する。
ビューイメージから補助的知識を効果的に獲得するために,教師学生のための枠組みを開発し,知識蒸留問題としてクロスモーダル学習を定式化する。
我々は、魅力的なバックボーン、すなわちPointCMT、PointNet++、PointMLPを備えた様々なデータセットにおいて、大きな利益を検証した。
論文 参考訳(メタデータ) (2022-10-09T09:35:22Z) - Spiral Contrastive Learning: An Efficient 3D Representation Learning
Method for Unannotated CT Lesions [3.753298508539919]
本稿では,3次元表現を効率よく表現するスパイラルコントラスト学習(SCL)を提案する。
SCLは、教師なし表現学習のためのLIDC-IDRI、LNDb、TianChiの最先端精度を実現する。
SCLは、他の3D SSLアルゴリズムと比較して計算労力を66.98%削減する。
論文 参考訳(メタデータ) (2022-08-23T02:31:03Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - 2.75D: Boosting learning by representing 3D Medical imaging to 2D
features for small data [54.223614679807994]
3D畳み込みニューラルネットワーク(CNN)は、多くのディープラーニングタスクにおいて、2D CNNよりも優れたパフォーマンスを示し始めている。
3D CNNにトランスファー学習を適用することは、パブリックにトレーニング済みの3Dモデルがないために困難である。
本研究では,ボリュームデータの2次元戦略的表現,すなわち2.75Dを提案する。
その結果,2次元CNNネットワークをボリューム情報学習に用いることが可能となった。
論文 参考訳(メタデータ) (2020-02-11T08:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。