論文の概要: Tyche: Stochastic In-Context Learning for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2401.13650v1
- Date: Wed, 24 Jan 2024 18:35:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 13:42:17.797315
- Title: Tyche: Stochastic In-Context Learning for Medical Image Segmentation
- Title(参考訳): tyche: 医学画像分割のための確率的文脈学習
- Authors: Marianne Rakic, Hallee E. Wong, Jose Javier Gonzalez Ortiz, Beth
Cimini, John Guttag and Adrian V. Dalca
- Abstract要約: Tycheは、コンテキストセットを使用して、以前見つからなかったタスクの予測を生成するモデルである。
本稿では,予測間の相互作用を可能にする新しい畳み込みブロックアーキテクチャを提案する。
適切なモデル設計と損失関数を組み合わせることで、Tycheは、再トレーニングを必要とせずに、新規または未確認の医療画像やセグメンテーションタスクに対して、妥当な多様なセグメンテーション候補のセットを予測することができる。
- 参考スコア(独自算出の注目度): 3.7997415514096926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing learning-based solutions to medical image segmentation have two
important shortcomings. First, for most new segmentation task, a new model has
to be trained or fine-tuned. This requires extensive resources and machine
learning expertise, and is therefore often infeasible for medical researchers
and clinicians. Second, most existing segmentation methods produce a single
deterministic segmentation mask for a given image. In practice however, there
is often considerable uncertainty about what constitutes the correct
segmentation, and different expert annotators will often segment the same image
differently. We tackle both of these problems with Tyche, a model that uses a
context set to generate stochastic predictions for previously unseen tasks
without the need to retrain. Tyche differs from other in-context segmentation
methods in two important ways. (1) We introduce a novel convolution block
architecture that enables interactions among predictions. (2) We introduce
in-context test-time augmentation, a new mechanism to provide prediction
stochasticity. When combined with appropriate model design and loss functions,
Tyche can predict a set of plausible diverse segmentation candidates for new or
unseen medical images and segmentation tasks without the need to retrain.
- Abstract(参考訳): 既存の医用画像セグメンテーションに対する学習ベースのソリューションには2つの重要な欠点がある。
まず、ほとんどの新しいセグメンテーションタスクでは、新しいモデルをトレーニングまたは微調整する必要がある。
これは膨大なリソースと機械学習の専門知識を必要とするため、医学研究者や臨床医には利用できないことが多い。
第二に、既存のセグメンテーション手法は、与えられた画像に対して単一の決定論的セグメンテーションマスクを生成する。
しかし実際には、何が正しいセグメンテーションを構成するかについてはかなり不確実性があることが多く、異なる専門家アノテータは、しばしば同じ画像を異なる方法でセグメンテーションする。
我々はこれら2つの問題にTycheを用いて対処する。Tycheはコンテキストセットを使用して、以前に見つからなかったタスクの確率的予測を生成する。
ティッシュは他の文脈内セグメンテーション法と2つの重要な方法で異なる。
1)予測間の相互作用を可能にする新しい畳み込みブロックアーキテクチャを提案する。
2) 予測確率性を提供する新しいメカニズムであるインコンテキストテスト時間拡張を導入する。
適切なモデル設計と損失関数とを組み合わせることで、tycheは再トレーニングする必要なしに、新しいまたは未発見の医療画像とセグメント化タスクの多様なセグメンテーション候補のセットを予測できる。
関連論文リスト
- Multi-rater Prompting for Ambiguous Medical Image Segmentation [12.452584289825849]
医用画像が複数の専門家(レーダ)によって独立して注釈付けされる場合、マルチラターアノテーションは一般的に発生する。
本稿では,これら2つの課題を完全に解決するためのマルチラッタープロンプトベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-11T09:13:50Z) - MUSCLE: Multi-task Self-supervised Continual Learning to Pre-train Deep
Models for X-ray Images of Multiple Body Parts [63.30352394004674]
MUSCLE(Multi-task Self-super-vised Continual Learning)は、医用画像処理タスクのための、新しい自己教師付き事前学習パイプラインである。
MUSCLEは、複数の身体部分から収集したX線を集約して表現学習を行い、よく設計された連続学習手順を採用する。
肺炎分類,骨格異常分類,肺セグメンテーション,結核(TB)検出など,9つの実世界のX線データセットを用いてMUSCLEを評価する。
論文 参考訳(メタデータ) (2023-10-03T12:19:19Z) - UniverSeg: Universal Medical Image Segmentation [16.19510845046103]
そこで,UniverSegを提案する。UniverSegは,未確認の医療セグメンテーションタスクを,追加のトレーニングなしで解決する手法である。
53のオープンアクセス医療セグメンテーションデータセットを22,000以上のスキャンで収集し、標準化しました。
我々はUniverSegが、未確認タスクにおいて、いくつかの関連メソッドを大幅に上回っていることを実証した。
論文 参考訳(メタデータ) (2023-04-12T19:36:46Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Learning Discriminative Representation via Metric Learning for
Imbalanced Medical Image Classification [52.94051907952536]
本稿では,特徴抽出器がより識別的な特徴表現を抽出するのを助けるために,2段階フレームワークの第1段階にメトリック学習を組み込むことを提案する。
主に3つの医用画像データセットを用いて実験したところ、提案手法は既存の1段階と2段階のアプローチより一貫して優れていた。
論文 参考訳(メタデータ) (2022-07-14T14:57:01Z) - A Field of Experts Prior for Adapting Neural Networks at Test Time [8.244295783641396]
画像解析タスクにおける畳み込みニューラルネットワーク(CNN)の性能は、しばしば、トレーニングとテストイメージの間の取得関連分布シフトによって損なわれる。
テスト画像ごとに訓練されたCNNを微調整することでこの問題に対処することが提案されている。
テスト時間適応(TTA)は,テスト画像とトレーニング画像の特徴分布を一致させて行う。
論文 参考訳(メタデータ) (2022-02-10T11:44:45Z) - Recurrent Mask Refinement for Few-Shot Medical Image Segmentation [15.775057485500348]
本稿では,プロトタイプネットワークに基づく数ショットの医用画像セグメンテーションのための新しいフレームワークを提案する。
1) 前景と背景領域間の局所的関係の特徴を関連付けるために相関を利用するコンテキスト関係エンコーダ(CRE)である。
2つの腹部CTデータセットと腹部MRIデータセットを用いた実験により、提案手法は最先端の方法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2021-08-02T04:06:12Z) - Cascaded Robust Learning at Imperfect Labels for Chest X-ray
Segmentation [61.09321488002978]
不完全アノテーションを用いた胸部X線分割のための新しいカスケードロバスト学習フレームワークを提案する。
モデルは3つの独立したネットワークから成り,ピアネットワークから有用な情報を効果的に学習できる。
提案手法は,従来の手法と比較して,セグメント化タスクの精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-04-05T15:50:16Z) - A Few Guidelines for Incremental Few-Shot Segmentation [57.34237650765928]
事前訓練されたセグメンテーションモデルと、新しいクラスを含む画像が少ないことを前提として、我々が目指すのは、以前に見たセグメンテーション能力を維持しながら、新しいクラスをセグメンテーションすることである。
このシナリオにおけるエンド・ツー・エンドのトレーニングの主な問題はどのようなものかを示します。
一 バッチ正規化統計を、バッチ正規化で修正できる新しいクラスへ向けての漂流すること。
二 旧クラスの忘れ物 正規化戦略で解決できるもの。
論文 参考訳(メタデータ) (2020-11-30T20:45:56Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z) - Semi-supervised few-shot learning for medical image segmentation [21.349705243254423]
大規模な注釈付きデータセットの必要性を緩和する最近の試みは、数ショットの学習パラダイムの下でトレーニング戦略を開発した。
セマンティックセグメンテーションのための新しい数発の学習フレームワークを提案し,各エピソードでラベルのない画像も利用できるようにした。
エピソードトレーニングにおけるラベルなしのサロゲートタスクを含めると、より強力な特徴表現がもたらされることを示す。
論文 参考訳(メタデータ) (2020-03-18T20:37:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。