論文の概要: Multi-task pre-training of deep neural networks for digital pathology
- arxiv url: http://arxiv.org/abs/2005.02561v2
- Date: Thu, 7 May 2020 08:16:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 14:00:00.053872
- Title: Multi-task pre-training of deep neural networks for digital pathology
- Title(参考訳): デジタル病理のためのディープニューラルネットワークのマルチタスク事前学習
- Authors: Romain Mormont, Pierre Geurts, Rapha\"el Mar\'ee
- Abstract要約: 私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
- 参考スコア(独自算出の注目度): 8.74883469030132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we investigate multi-task learning as a way of pre-training
models for classification tasks in digital pathology. It is motivated by the
fact that many small and medium-size datasets have been released by the
community over the years whereas there is no large scale dataset similar to
ImageNet in the domain. We first assemble and transform many digital pathology
datasets into a pool of 22 classification tasks and almost 900k images. Then,
we propose a simple architecture and training scheme for creating a
transferable model and a robust evaluation and selection protocol in order to
evaluate our method. Depending on the target task, we show that our models used
as feature extractors either improve significantly over ImageNet pre-trained
models or provide comparable performance. Fine-tuning improves performance over
feature extraction and is able to recover the lack of specificity of ImageNet
features, as both pre-training sources yield comparable performance.
- Abstract(参考訳): 本研究では,デジタル病理学における分類タスクの事前学習モデルとしてのマルチタスク学習について検討する。
多くの中小データセットが長年にわたってコミュニティによってリリースされているのに対して、ドメインにImageNetに似た大規模なデータセットは存在しないという事実に動機づけられている。
最初に、多くのデジタル病理データセットを22の分類タスクと900万近い画像のプールに組み立て、変換しました。
そして,本手法を評価するために,転送可能なモデルとロバストな評価・選択プロトコルを作成するための簡単なアーキテクチャとトレーニング手法を提案する。
対象のタスクに応じて、特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善するか、同等のパフォーマンスを提供するかを示す。
微調整は機能抽出よりもパフォーマンスが向上し、imagenetの機能の特異性の欠如を回復することができる。
関連論文リスト
- Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - Enhancing pretraining efficiency for medical image segmentation via transferability metrics [0.0]
医用画像のセグメンテーションタスクでは、ラベル付きトレーニングデータの不足が大きな課題となっている。
本稿では,事前学習したモデルが対象データをいかに頑健に表現できるかを計測する,対照的な学習に基づく新しい伝達可能性指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T12:11:52Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - An evaluation of pre-trained models for feature extraction in image
classification [0.0]
この研究は、画像分類タスクにおける特徴抽出のために、様々な事前学習ニューラルネットワークの性能を比較することを目的としている。
以上の結果から,CLIP-ResNet50モデルに類似した性能を持つが,可変性が低いCLIP-ViT-BとViT-H-14により,データセットに沿って最高の汎用性能が達成されたことが示唆された。
論文 参考訳(メタデータ) (2023-10-03T13:28:14Z) - DreamTeacher: Pretraining Image Backbones with Deep Generative Models [103.62397699392346]
本稿では、下流画像バックボーンの事前学習に生成ネットワークを利用する自己教師付き特徴表現学習フレームワークを提案する。
1)画像Netなどの大規模ラベル付きデータセット上で,これらのバックボーンを事前学習する代替として,学習した生成特徴を対象画像のバックボーンに蒸留する。
私たちのDreamTeacherは、ボード全体で既存の自己指導型表現学習のアプローチを大幅に上回っていることを実証的に見出した。
論文 参考訳(メタデータ) (2023-07-14T17:17:17Z) - Multi-domain learning CNN model for microscopy image classification [3.2835754110596236]
顕微鏡画像の分類のためのマルチドメイン学習アーキテクチャを提案する。
計算集約的な従来の方法とは異なり、Mobincepと呼ばれるコンパクトモデルを開発した。
最先端の結果を超え、ラベル付きデータに対して堅牢である。
論文 参考訳(メタデータ) (2023-04-20T19:32:23Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Image Augmentation for Multitask Few-Shot Learning: Agricultural Domain
Use-Case [0.0]
本稿では,植物フェノミクスドメインの例に基づいて,小規模で不均衡なデータセットに挑戦する。
画像拡張フレームワークを導入することで,トレーニングサンプル数を大幅に拡大することができる。
本手法は,少数のトレーニングサンプルが利用可能であれば,モデル性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-24T14:08:34Z) - Pre-Trained Image Processing Transformer [95.93031793337613]
我々は、新しい事前学習モデル、すなわち、画像処理変換器(IPT)を開発する。
本稿では、よく知られたImageNetベンチマークを用いて、大量の画像ペアを生成する。
IPTモデルは、これらの画像をマルチヘッドとマルチテールでトレーニングする。
論文 参考訳(メタデータ) (2020-12-01T09:42:46Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。