論文の概要: Leveraging Task-Specific Knowledge from LLM for Semi-Supervised 3D Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2407.05088v1
- Date: Sat, 6 Jul 2024 14:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 21:08:14.148687
- Title: Leveraging Task-Specific Knowledge from LLM for Semi-Supervised 3D Medical Image Segmentation
- Title(参考訳): 半監督型3次元医用画像分割のためのLCMからのタスク特化知識の活用
- Authors: Suruchi Kumari, Aryan Das, Swalpa Kumar Roy, Indu Joshi, Pravendra Singh,
- Abstract要約: LLM-SegNetは大規模言語モデル(LLM)を利用してタスク固有の知識を協調学習フレームワークに統合する。
一般公開されているLeft Atrium、Pancreas-CT、Brats-19データセットの実験は、最先端技術と比較してLLM-SegNetの優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 9.778201925906913
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traditional supervised 3D medical image segmentation models need voxel-level annotations, which require huge human effort, time, and cost. Semi-supervised learning (SSL) addresses this limitation of supervised learning by facilitating learning with a limited annotated and larger amount of unannotated training samples. However, state-of-the-art SSL models still struggle to fully exploit the potential of learning from unannotated samples. To facilitate effective learning from unannotated data, we introduce LLM-SegNet, which exploits a large language model (LLM) to integrate task-specific knowledge into our co-training framework. This knowledge aids the model in comprehensively understanding the features of the region of interest (ROI), ultimately leading to more efficient segmentation. Additionally, to further reduce erroneous segmentation, we propose a Unified Segmentation loss function. This loss function reduces erroneous segmentation by not only prioritizing regions where the model is confident in predicting between foreground or background pixels but also effectively addressing areas where the model lacks high confidence in predictions. Experiments on publicly available Left Atrium, Pancreas-CT, and Brats-19 datasets demonstrate the superior performance of LLM-SegNet compared to the state-of-the-art. Furthermore, we conducted several ablation studies to demonstrate the effectiveness of various modules and loss functions leveraged by LLM-SegNet.
- Abstract(参考訳): 従来の3D医療画像セグメンテーションモデルは、大量の人的労力、時間、コストを必要とする、ボクセルレベルのアノテーションを必要とする。
半教師付き学習(SSL)は、限定的な注釈付きおよび大量の未注釈のトレーニングサンプルで学習を容易にすることにより、教師付き学習のこの制限に対処する。
しかし、最先端のSSLモデルは、未発表のサンプルから学習する可能性を完全に活用するのに依然として苦労している。
LLM-SegNetは大規模言語モデル(LLM)を利用してタスク固有の知識を協調学習フレームワークに統合する。
この知識は、関心領域(ROI)の特徴を包括的に理解するモデルに役立つ。
さらに、誤セグメント化をさらに低減するために、統一セグメント化損失関数を提案する。
この損失関数は、モデルが前景または背景画素間の予測に自信を持つ領域を優先順位付けするだけでなく、モデルが予測に高い信頼を欠いている領域を効果的に解決する。
一般公開されているLeft Atrium、Pancreas-CT、Brats-19データセットの実験は、最先端技術と比較してLLM-SegNetの優れたパフォーマンスを示している。
さらに, LLM-SegNet を利用した各種モジュールの有効性と損失関数について, いくつかのアブレーション実験を行った。
関連論文リスト
- ItTakesTwo: Leveraging Peer Representations for Semi-supervised LiDAR Semantic Segmentation [24.743048965822297]
本稿では,ItTakesTwo (IT2) と呼ばれる半教師付きLiDARセマンティックセマンティックセマンティクスフレームワークを提案する。
IT2は、ピアLiDAR表現からの一貫性のある予測を保証するために設計されており、一貫性学習における摂動効率を改善する。
その結果,本手法は従来のSOTA法よりも顕著に改善されていることがわかった。
論文 参考訳(メタデータ) (2024-07-09T18:26:53Z) - Evaluating Large Language Models for Health-Related Text Classification Tasks with Public Social Media Data [3.9459077974367833]
大規模言語モデル(LLM)は、NLPタスクにおいて顕著な成功を収めた。
我々は、サポートベクトルマシン(SVM)に基づく教師付き古典機械学習モデルと、RoBERTa、BERTweet、SocBERTに基づく3つの教師付き事前訓練言語モデル(PLM)と、6つのテキスト分類タスクで2つのLLMベースの分類器(GPT3.5、GPT4)をベンチマークした。
LLM(GPT-4)を用いた軽量教師付き分類モデルの訓練には,比較的小さな人手によるデータ拡張(GPT-4)が有効であることを示す総合的な実験を行った。
論文 参考訳(メタデータ) (2024-03-27T22:05:10Z) - Few-Shot Learning for Annotation-Efficient Nucleus Instance Segmentation [50.407071700154674]
少数ショット学習(FSL)の観点から、アノテーション効率の良い核インスタンスセグメンテーションを定式化することを提案する。
我々の研究は、計算病理学の隆盛とともに、多くの完全注釈付きデータセットが一般に公開されていることに動機づけられた。
いくつかの公開データセットに対する大規模な実験は、SGFSISが他のアノテーション効率のよい学習ベースラインより優れていることを示している。
論文 参考訳(メタデータ) (2024-02-26T03:49:18Z) - Measuring Distributional Shifts in Text: The Advantage of Language
Model-Based Embeddings [11.393822909537796]
実運用における機械学習モデル監視の重要な部分は、入力と出力データのドリフトを測定することである。
大規模言語モデル(LLM)の最近の進歩は、意味的関係を捉える上での有効性を示している。
このような埋め込みを利用してテキストデータの分布変化を測定するクラスタリングに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-04T20:46:48Z) - Scribble-supervised Cell Segmentation Using Multiscale Contrastive
Regularization [9.849498498869258]
Scribble2Label (S2L) は、一握りのスクリブルと自己教師付き学習を使用することで、完全なアノテーションなしで正確なセグメンテーション結果を生成することを示した。
本研究では,S2Lに対して,新しいマルチスケールコントラスト正規化項を用いる。
主なアイデアは、ニューラルネットワークの中間層から特徴を抽出して、さまざまなスケールの構造を効果的に分離できるようにすることである。
論文 参考訳(メタデータ) (2023-06-25T06:00:33Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z) - Revisiting Distance Metric Learning for Few-Shot Natural Language
Classification [1.0323063834827415]
数ショットの学習設定では、特にプロキシベースのDML損失は、教師付き言語モデルの微調整と推論に肯定的な影響を及ぼす可能性がある。
CCEとProxyAnchor Lossの組み合わせで調整されたモデルは、平均すると、CCEのみが3.27ポイントの最高のパフォーマンスとパフォーマンスのモデルである。
論文 参考訳(メタデータ) (2022-11-28T10:19:31Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - Adversarial Self-Supervised Learning for Semi-Supervised 3D Action
Recognition [123.62183172631443]
本稿では,SSLと半教師付きスキームを緊密に結合する新しいフレームワークであるAdversarial Self-Supervised Learning (ASSL)を紹介する。
具体的には,3次元動作認識のための学習表現の識別能力を向上させる効果的なSSL方式を設計する。
論文 参考訳(メタデータ) (2020-07-12T08:01:06Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。