論文の概要: Blackbox Adaptation for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2405.10913v1
- Date: Fri, 17 May 2024 17:02:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 15:34:03.785471
- Title: Blackbox Adaptation for Medical Image Segmentation
- Title(参考訳): 医用画像分割のためのブラックボックス適応
- Authors: Jay N. Paranjape, Shameema Sikder, S. Swaroop Vedula, Vishal M. Patel,
- Abstract要約: BAPSと呼ばれる医用画像分割のためのブラックボックス適応技術を開発した。
提案手法は,元のモデルの性能を約4%向上させることができることを示す。
- 参考スコア(独自算出の注目度): 25.12190845061075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, various large foundation models have been proposed for image segmentation. There models are often trained on large amounts of data corresponding to general computer vision tasks. Hence, these models do not perform well on medical data. There have been some attempts in the literature to perform parameter-efficient finetuning of such foundation models for medical image segmentation. However, these approaches assume that all the parameters of the model are available for adaptation. But, in many cases, these models are released as APIs or blackboxes, with no or limited access to the model parameters and data. In addition, finetuning methods also require a significant amount of compute, which may not be available for the downstream task. At the same time, medical data can't be shared with third-party agents for finetuning due to privacy reasons. To tackle these challenges, we pioneer a blackbox adaptation technique for prompted medical image segmentation, called BAPS. BAPS has two components - (i) An Image-Prompt decoder (IP decoder) module that generates visual prompts given an image and a prompt, and (ii) A Zero Order Optimization (ZOO) Method, called SPSA-GC that is used to update the IP decoder without the need for backpropagating through the foundation model. Thus, our method does not require any knowledge about the foundation model's weights or gradients. We test BAPS on four different modalities and show that our method can improve the original model's performance by around 4%.
- Abstract(参考訳): 近年,画像分割のための様々な基礎モデルが提案されている。
一般的なコンピュータビジョンタスクに対応する大量のデータに基づいてトレーニングされるモデルもある。
したがって、これらのモデルは医療データではうまく機能しない。
医用画像セグメンテーションの基礎モデルをパラメータ効率で微調整する試みが文献でいくつか行われている。
しかしながら、これらのアプローチはモデルの全てのパラメータが適応可能であると仮定する。
しかし多くの場合、これらのモデルはAPIやブラックボックスとしてリリースされ、モデルパラメータやデータへのアクセスは制限されない。
さらに、微調整には大量の計算が必要であるため、下流のタスクでは利用できない可能性がある。
同時に、プライバシー上の理由から、医療データをサードパーティのエージェントと共有することはできません。
これらの課題に対処するため,医療画像分割のためのブラックボックス適応手法であるBAPSを考案した。
BAPSには2つのコンポーネントがあります。
一 画像及びプロンプトを与えられた視覚的プロンプトを生成する画像プロンプトデコーダ(IPデコーダ)モジュール
(II)基盤モデルによるバックプロパゲートを必要とせずにIPデコーダの更新に使用されるSPSA-GCと呼ばれるゼロオーダー最適化(ZOO)手法。
したがって,本手法は基礎モデルの重みや勾配に関する知識を必要としない。
BAPSを4つの異なるモードでテストし,提案手法が元のモデルの性能を約4%向上できることを示す。
関連論文リスト
- DEEM: Diffusion Models Serve as the Eyes of Large Language Models for Image Perception [66.88792390480343]
本稿では,拡散モデルの生成的フィードバックを利用して画像エンコーダのセマンティックな分布を整合させる,シンプルで効果的なアプローチであるDEEMを提案する。
DEEMは、訓練可能なパラメータを少なくし、事前訓練データが少なく、ベースモデルのサイズを小さくし、幻覚を緩和するための強化された堅牢性と優れた能力を示す。
論文 参考訳(メタデータ) (2024-05-24T05:46:04Z) - FreeSeg-Diff: Training-Free Open-Vocabulary Segmentation with Diffusion Models [56.71672127740099]
我々は,閉鎖語彙データセットのトレーニングモデルによって伝統的に解決されるイメージセグメンテーションの課題に焦点をあてる。
我々は、ゼロショットのオープン語彙セグメンテーションのために、異なる、比較的小さなオープンソース基盤モデルを活用している。
当社のアプローチ(別名FreeSeg-Diff)は、トレーニングに依存しないもので、Pascal VOCとCOCOデータセットの両方で多くのトレーニングベースのアプローチより優れています。
論文 参考訳(メタデータ) (2024-03-29T10:38:25Z) - Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - MeLo: Low-rank Adaptation is Better than Fine-tuning for Medical Image Diagnosis [63.59184480010552]
ヴィジュアルトランスフォーマー(ViT)は、医療画像のコミュニティにとってずっと大きく、アクセスしにくくなっている。
MeLo(医療画像低ランク適応)は、リソース要求の微調整の代わりに低ランク適応を採用する。
提案手法は,4つの異なる医用画像データセット上で,完全に微調整されたVTモデルに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-11-14T15:18:54Z) - Promise:Prompt-driven 3D Medical Image Segmentation Using Pretrained
Image Foundation Models [13.08275555017179]
単点プロンプトのみを用いたプロンプト駆動型3次元医用画像分割モデルProMISeを提案する。
今回,大腸癌と膵腫瘍の2つの領域に分布する2つのパブリックデータセットについて検討した。
論文 参考訳(メタデータ) (2023-10-30T16:49:03Z) - Towards Few-Call Model Stealing via Active Self-Paced Knowledge
Distillation and Diffusion-Based Image Generation [33.60710287553274]
そこで本研究では,ブラックボックスの分類モデルを,トレーニングデータやアーキテクチャ,重みなどにアクセスせずにコピーすることを提案する。
蒸留時にプロキシデータを最大限に活用するために,新たなアクティブなセルフペース学習フレームワークを採用している。
2つのデータセットに対する実験結果から,マルチコールモデル抽出シナリオにおける2つの最先端手法に対するフレームワークの優位性が確認された。
論文 参考訳(メタデータ) (2023-09-29T19:09:27Z) - Self-Prompting Large Vision Models for Few-Shot Medical Image
Segmentation [14.135249795318591]
本稿では,医療ビジョン応用における自己プロンプトの新たな視点を提案する。
我々は、Segment Anything Modelの埋め込み空間を利用して、単純だが効果的な線形ピクセルワイド分類器を通して自身を誘導する。
複数のデータセットで競合する結果を得る。
論文 参考訳(メタデータ) (2023-08-15T08:20:07Z) - Prompt-Based Tuning of Transformer Models for Multi-Center Medical Image
Segmentation of Head and Neck Cancer [0.0]
本稿では,新しい医療センターのデータに事前訓練されたトランスフォーマーベースセグメンテーションモデルを適用するための,新しい微調整戦略を提案する。
我々の戦略は、新センターデータの再トレーニングを最小限に抑え、計算コストと時間コストを大幅に削減する。
論文 参考訳(メタデータ) (2023-05-30T11:26:52Z) - Joint Modeling of Image and Label Statistics for Enhancing Model
Generalizability of Medical Image Segmentation [14.106339318764372]
本稿では,画像統計とラベル統計を共同でモデル化する深層学習に基づくベイジアンフレームワークを提案する。
我々は,これらの変数の輪郭,基底,ラベルを含む後続分布を推定する変分ベイズ的枠組みを開発した。
クロスシーケンス心電図のセグメント化作業の結果から,本手法はモデル一般化のための新しい手法の確立を図った。
論文 参考訳(メタデータ) (2022-06-09T08:31:14Z) - On-the-Fly Test-time Adaptation for Medical Image Segmentation [63.476899335138164]
ソースモデルをテスト時にターゲットデータに適応させることは、データシフト問題に対する効率的な解決策である。
本稿では、各畳み込みブロックに適応バッチ正規化層を設けるAdaptive UNetという新しいフレームワークを提案する。
テスト期間中、モデルは新しいテストイメージのみを取り込み、ドメインコードを生成して、テストデータに従ってソースモデルの特徴を適応させる。
論文 参考訳(メタデータ) (2022-03-10T18:51:29Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。