論文の概要: Extending Unsupervised Neural Image Compression With Supervised
Multitask Learning
- arxiv url: http://arxiv.org/abs/2004.07041v1
- Date: Wed, 15 Apr 2020 12:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 03:23:38.032981
- Title: Extending Unsupervised Neural Image Compression With Supervised
Multitask Learning
- Title(参考訳): マルチタスク学習による教師なしニューラルネットワーク圧縮の拡張
- Authors: David Tellez, Diederik Hoppener, Cornelis Verhoef, Dirk Grunhagen,
Pieter Nierop, Michal Drozdzal, Jeroen van der Laak, Francesco Ciompi
- Abstract要約: 我々は、画像レベルの目標を予測するために、ギガピクセルの病理画像上で畳み込みニューラルネットワークを訓練する問題に焦点を当てる。
画像圧縮フレームワークであるNeural Image Compression(NIC)を拡張して,教師なしでトレーニングしたエンコーダネットワークを用いて,画像の次元を縮小する。
代わりに、教師付きマルチタスク学習(MTL)を用いて、このエンコーダを訓練することを提案する。
- 参考スコア(独自算出の注目度): 9.11819585066044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on the problem of training convolutional neural networks on
gigapixel histopathology images to predict image-level targets. For this
purpose, we extend Neural Image Compression (NIC), an image compression
framework that reduces the dimensionality of these images using an encoder
network trained unsupervisedly. We propose to train this encoder using
supervised multitask learning (MTL) instead. We applied the proposed MTL NIC to
two histopathology datasets and three tasks. First, we obtained
state-of-the-art results in the Tumor Proliferation Assessment Challenge of
2016 (TUPAC16). Second, we successfully classified histopathological growth
patterns in images with colorectal liver metastasis (CLM). Third, we predicted
patient risk of death by learning directly from overall survival in the same
CLM data. Our experimental results suggest that the representations learned by
the MTL objective are: (1) highly specific, due to the supervised training
signal, and (2) transferable, since the same features perform well across
different tasks. Additionally, we trained multiple encoders with different
training objectives, e.g. unsupervised and variants of MTL, and observed a
positive correlation between the number of tasks in MTL and the system
performance on the TUPAC16 dataset.
- Abstract(参考訳): 画像レベルのターゲットを予測するために,gigapixelの病理組織像に畳み込みニューラルネットワークを訓練する問題に焦点を当てた。
そこで本研究では,画像圧縮フレームワークであるneural image compression (nic)を拡張し,教師なしでトレーニングしたエンコーダネットワークを用いて,画像の次元性を低減する。
代わりに、教師付きマルチタスク学習(MTL)を用いて、このエンコーダを訓練することを提案する。
提案したMTL NICを2つの病理組織学的データセットと3つのタスクに適用した。
まず,2016年の腫瘍増殖評価チャレンジ(TUPAC16)で最先端の成績を得た。
第2に,大腸肝転移像(clm)の病理組織学的増殖パターンを分類した。
第3に,同一のCLMデータから生存率を直接学習し,死亡リスクを予測した。
MTLの目的によって学習された表現は,(1)教師付き訓練信号により高度に特定され,(2)伝達可能であり,また,同じ特徴が様々なタスクで良好に機能することが示唆された。
さらに、MTLの教師なしや変種など、異なるトレーニング目標を持つ複数のエンコーダを訓練し、MPLにおけるタスク数とTUPAC16データセット上でのシステムパフォーマンスとの間に正の相関を観測した。
関連論文リスト
- NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Connecting the Dots: Graph Neural Network Powered Ensemble and
Classification of Medical Images [0.0]
医療画像の深層学習は、大量のトレーニングデータを必要とするため、制限されている。
画像フォレスティング変換を用いて、画像を最適にスーパーピクセルに分割する。
これらのスーパーピクセルはその後、グラフ構造化データに変換され、特徴の巧妙な抽出と関係のモデリングを可能にする。
論文 参考訳(メタデータ) (2023-11-13T13:20:54Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Dual Multi-scale Mean Teacher Network for Semi-supervised Infection
Segmentation in Chest CT Volume for COVID-19 [76.51091445670596]
CT(Computed tomography)データから肺感染症を自動的に検出することは、COVID-19と戦う上で重要な役割を担っている。
現在の新型コロナウイルス感染症のセグメンテーションのほとんどは、主に3Dシーケンシャルな制約を欠いた2D CT画像に依存している。
既存の3次元CTセグメンテーション法では,3次元ボリュームにおける複数レベルの受容場サイズを達成できない単一スケールの表現に焦点が当てられている。
論文 参考訳(メタデータ) (2022-11-10T13:11:21Z) - Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT) [2.7298989068857487]
自己教師型学習は、畳み込みネットワークを用いた医用画像のセグメンテーションに成功している。
我々は、我々のアプローチがより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要があることを示した。
論文 参考訳(メタデータ) (2022-05-20T17:55:14Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - UNetFormer: A Unified Vision Transformer Model and Pre-Training
Framework for 3D Medical Image Segmentation [14.873473285148853]
UNetFormerと呼ばれる2つのアーキテクチャで構成され,3D Swin TransformerベースのエンコーダとConal Neural Network(CNN)とTransformerベースのデコーダを備えている。
提案モデルでは, 5つの異なる解像度でのスキップ接続により, エンコーダをデコーダにリンクする。
本稿では,ランダムにマスクされたトークンを予測する学習を通じて,エンコーダバックボーンの自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-01T17:38:39Z) - Self-Supervised Learning for 3D Medical Image Analysis using 3D SimCLR
and Monte Carlo Dropout [4.190672342471606]
コントラスト型(SimCLR)法に基づく3次元自己監督手法を提案する。
推論フェーズにおいてベイズニューラルネットワークを用いることで、下流タスクの結果をさらに高めることができることを示す。
論文 参考訳(メタデータ) (2021-09-29T09:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。