論文の概要: Prompt Tuning for Parameter-efficient Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2211.09233v1
- Date: Wed, 16 Nov 2022 21:55:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 16:10:28.679689
- Title: Prompt Tuning for Parameter-efficient Medical Image Segmentation
- Title(参考訳): パラメータ効率の良い医用画像分割のためのプロンプトチューニング
- Authors: Marc Fischer, Alexander Bartler, Bin Yang
- Abstract要約: 2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
- 参考スコア(独自算出の注目度): 79.09285179181225
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural networks pre-trained on a self-supervision scheme have become the
standard when operating in data rich environments with scarce annotations. As
such, fine-tuning a model to a downstream task in a parameter-efficient but
effective way, e.g. for a new set of classes in the case of semantic
segmentation, is of increasing importance. In this work, we propose and
investigate several contributions to achieve a parameter-efficient but
effective adaptation for semantic segmentation on two medical imaging datasets.
Relying on the recently popularized prompt tuning approach, we provide a
prompt-able UNet (PUNet) architecture, that is frozen after pre-training, but
adaptable throughout the network by class-dependent learnable prompt tokens. We
pre-train this architecture with a dedicated dense self-supervision scheme
based on assignments to online generated prototypes (contrastive prototype
assignment, CPA) of a student teacher combination alongside a concurrent
segmentation loss on a subset of classes. We demonstrate that the resulting
neural network model is able to attenuate the gap between fully fine-tuned and
parameter-efficiently adapted models on CT imaging datasets. As such, the
difference between fully fine-tuned and prompt-tuned variants amounts to only
3.83 pp for the TCIA/BTCV dataset and 2.67 pp for the CT-ORG dataset in the
mean Dice Similarity Coefficient (DSC, in %) while only prompt tokens,
corresponding to 0.85% of the pre-trained backbone model with 6.8M frozen
parameters, are adjusted. The code for this work is available on
https://github.com/marcdcfischer/PUNet .
- Abstract(参考訳): 自己超越スキームで事前訓練されたニューラルネットワークは、アノテーションの少ないデータリッチ環境での運用において標準となっている。
例えば、セマンティクスのセグメンテーションにおいて新しいクラスのセットなど、パラメータ効率が良いが効果的な方法で下流タスクにモデルを微調整することの重要性が高まっている。
本研究では,2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
最近普及したプロンプトチューニングアプローチを参考に,プリトレーニング後に凍結されるが,クラス依存の学習可能なプロンプトトークンによってネットワーク全体に適応可能な,プロンプト可能なUNet(PUNet)アーキテクチャを提供する。
このアーキテクチャを,オンライン作成プロトタイプ (contrastive prototype assignment, cpa) への割り当てと,クラスサブセットのセグメンテーション損失の同時処理を基本とした,密集した自己スーパービジョンスキームで事前学習する。
得られたニューラルネットワークモデルは,ct画像データセット上で,完全微調整されたモデルとパラメータに適応したモデルのギャップを軽減できることを実証する。
これにより、TCIA/BTCVデータセットは3.83pp、CT-ORGデータセットは2.67ppと、Dice similarity Coefficient(DSC, %)と、事前訓練されたバックボーンモデルの0.85%に相当するプロンプトトークンのみを調整した。
この作業のコードはhttps://github.com/marcdcfischer/PUNetで公開されている。
関連論文リスト
- Low-Rank Continual Pyramid Vision Transformer: Incrementally Segment Whole-Body Organs in CT with Light-Weighted Adaptation [10.746776960260297]
軽量低ランク適応 (LoRA) を用いた新しい連続体器官分割モデルを提案する。
まず、最初のタスクでピラミッドビジョントランスフォーマー(PVT)ベースセグメンテーションモデルをトレーニングし、その後、新しい学習タスク毎に凍結モデルに軽量でトレーニング可能なLoRAパラメータを継続的に追加する。
提案モデルでは, 破滅的忘れを伴わず, 低パラメータ増加率を維持しながら, 新しい臓器を連続的に分割する。
論文 参考訳(メタデータ) (2024-10-07T02:00:13Z) - DiTMoS: Delving into Diverse Tiny-Model Selection on Microcontrollers [34.282971510732736]
我々は、セレクタ分類器アーキテクチャを備えた新しいDNNトレーニングおよび推論フレームワークであるDiTMoSを紹介する。
弱いモデルの合成は高い多様性を示すことができ、それらの結合は精度の上限を大幅に高めることができる。
我々は,Nucleo STM32F767ZIボード上にDiTMoSをデプロイし,人間の活動認識,キーワードスポッティング,感情認識のための時系列データセットに基づいて評価する。
論文 参考訳(メタデータ) (2024-03-14T02:11:38Z) - Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Prompt-Matched Semantic Segmentation [96.99924127527002]
本研究の目的は、事前学習した基礎モデルを、画像意味セグメンテーションの下流の様々なタスクに効果的に適応する方法を検討することである。
本稿では,タスク指向のチューニングに適応的に視覚的プロンプトを生成するとともに,基礎モデルの本来の構造を維持できる新しい階層間プロンプトマッチングフレームワークを提案する。
次に、Semantic-aware Prompt Matcherと呼ばれる軽量モジュールを導入し、2つのステージ間で階層的に補間し、各タスクに対して適切なプロンプトを学習する。
論文 参考訳(メタデータ) (2022-08-22T09:12:53Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - FiT: Parameter Efficient Few-shot Transfer Learning for Personalized and
Federated Image Classification [47.24770508263431]
画像分類における要件を満たすFiLM Transfer (FiT) を開発した。
FiTは、大規模な画像データセットで事前トレーニングされた固定バックボーンの上に、自動的に設定されたNaive Bayes分類器を使用する。
本研究では, 最先端のBig Transfer (BiT) アルゴリズムよりも, ローショット, 挑戦的なVTAB-1kベンチマークにおいて, 高い分類精度が得られることを示す。
論文 参考訳(メタデータ) (2022-06-17T10:17:20Z) - DSEE: Dually Sparsity-embedded Efficient Tuning of Pre-trained Language
Models [152.29364079385635]
事前訓練されたモデルが大きくなればなるほど、微調整のプロセスは時間がかかり、計算コストがかかる可能性がある。
本稿では,重み更新と最終モデルの重み付けに先立って,疎度を活用することで,資源・パラメータ効率の微調整を行うフレームワークを提案する。
提案するフレームワークは,Dually Sparsity-Embeded Efficient Tuning (DSEE)と呼ばれ,パラメータ効率のよい微調整とリソース効率の推論という2つの重要な目標を達成することを目的としている。
論文 参考訳(メタデータ) (2021-10-30T03:29:47Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。