論文の概要: Clustering Propagation for Universal Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2403.16646v1
- Date: Mon, 25 Mar 2024 11:32:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 14:58:36.601391
- Title: Clustering Propagation for Universal Medical Image Segmentation
- Title(参考訳): ユニバーサル・メディカル・イメージ・セグメンテーションのためのクラスタリング・プロパゲーション
- Authors: Yuhang Ding, Liulei Li, Wenguan Wang, Yi Yang,
- Abstract要約: 医用画像のセグメンテーションのための卓越したソリューションは、通常、自動的またはインタラクティブな設定のために調整される。
クラスタリングベースのセグメンテーション技術にインスパイアされたS2VNetは、データのスライスワイズ構造をフル活用する。
S2VNetは、一般的な3Dソリューションに比べて高速な推論速度とメモリ消費の削減により、自分自身を区別する。
- 参考スコア(独自算出の注目度): 63.431147442243855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prominent solutions for medical image segmentation are typically tailored for automatic or interactive setups, posing challenges in facilitating progress achieved in one task to another.$_{\!}$ This$_{\!}$ also$_{\!}$ necessitates$_{\!}$ separate$_{\!}$ models for each task, duplicating both training time and parameters.$_{\!}$ To$_{\!}$ address$_{\!}$ above$_{\!}$ issues,$_{\!}$ we$_{\!}$ introduce$_{\!}$ S2VNet,$_{\!}$ a$_{\!}$ universal$_{\!}$ framework$_{\!}$ that$_{\!}$ leverages$_{\!}$ Slice-to-Volume$_{\!}$ propagation$_{\!}$ to$_{\!}$ unify automatic/interactive segmentation within a single model and one training session. Inspired by clustering-based segmentation techniques, S2VNet makes full use of the slice-wise structure of volumetric data by initializing cluster centers from the cluster$_{\!}$ results$_{\!}$ of$_{\!}$ previous$_{\!}$ slice.$_{\!}$ This enables knowledge acquired from prior slices to assist in the segmentation of the current slice, further efficiently bridging the communication between remote slices using mere 2D networks. Moreover, such a framework readily accommodates interactive segmentation with no architectural change, simply by initializing centroids from user inputs. S2VNet distinguishes itself by swift inference speeds and reduced memory consumption compared to prevailing 3D solutions. It can also handle multi-class interactions with each of them serving to initialize different centroids. Experiments on three benchmarks demonstrate S2VNet surpasses task-specified solutions on both automatic/interactive setups.
- Abstract(参考訳): 医用画像のセグメンテーションのための卓越したソリューションは、通常、自動化または対話的なセットアップのために調整され、あるタスクで達成された進歩を他のタスクに促進する上での課題を提起する。
$_{\!
この$_{\!
同じく$_{\!
必然的に$_{\!
separate$_{\!
トレーニング時間とパラメータの両方を重複させる。
$_{\!
To$_{\!
address$_{\!
above$_{\!
issue,$_{\!
We$_{\!
introduce$_{\!
S2VNet,$_{\!
a$_{\!
ユニバーサル$_{\!
フレームワーク$_{\!
その$_{\!
uses$_{\!
Slice-to-Volume$_{\!
}$ propagation$_{\!
$ to$_{\!
1つのモデルと1つのトレーニングセッションで自動/インタラクティブセグメンテーションを統合する。
クラスタリングベースのセグメンテーション技術にインスパイアされたS2VNetは、クラスタ$_{\!からクラスタセンターを初期化することによって、ボリュームデータのスライスワイズ構造をフル活用する。
}$ results$_{\!
$$ _{\!
以前の$_{\!
スライスする。
$_{\!
これは、従来のスライスから取得した知識を、現在のスライスのセグメンテーションを補助し、単純な2Dネットワークを使用してリモートスライス間の通信を効率的にブリッジすることを可能にする。
さらに、このようなフレームワークは、ユーザ入力からセントロイドを初期化するだけで、アーキテクチャ変更のない対話的なセグメンテーションを容易に扱える。
S2VNetは、一般的な3Dソリューションに比べて高速な推論速度とメモリ消費の削減により、自分自身を区別する。
また、それぞれが異なるセントロイドを初期化するのに役立つマルチクラス相互作用を処理できる。
3つのベンチマークの実験では、S2VNetは自動/対話的なセットアップにおいてタスク指定のソリューションを上回っている。
関連論文リスト
- LevAttention: Time, Space, and Streaming Efficient Algorithm for Heavy Attentions [54.54897832889028]
任意の$K$に対して、$n$とは独立に「普遍集合」$Uサブセット[n]$が存在し、任意の$Q$と任意の行$i$に対して、大きな注目スコアが$A_i,j$ in row $i$ of $A$は全て$jin U$を持つことを示す。
我々は、視覚変換器のスキームの利点を実証的に示し、トレーニング中に我々の普遍的なセットを使用する新しいモデルのトレーニング方法を示した。
論文 参考訳(メタデータ) (2024-10-07T19:47:13Z) - Scaling Distributed Multi-task Reinforcement Learning with Experience
Sharing [38.883540444516605]
DARPAはShELLプログラムを立ち上げた。これは、経験共有が分散生涯学習エージェントにどのように役立つかを探求することを目的としている。
分散マルチタスク強化学習(RL)の理論的および実証的研究を行い、N$エージェントのグループがM$タスクを協調的に解決する。
我々はDistMT-LSVIと呼ばれるアルゴリズムを提案し、各エージェントは独立に$epsilon$-optimal Policyを全ての$M$タスクに対して学習する。
論文 参考訳(メタデータ) (2023-07-11T22:58:53Z) - Simplifying and Understanding State Space Models with Diagonal Linear
RNNs [56.33053691749856]
本研究は、離散化ステップを解消し、バニラ対角線形RNNに基づくモデルを提案する。
概念的にはるかに単純であるにもかかわらず、$mathrmDLR$は以前提案したSSMと同じくらいのパフォーマンスを示す。
また、合成シーケンス・ツー・シーケンス・タスクのスイートによって、SSMとアテンションベースモデルの表現性も特徴付ける。
論文 参考訳(メタデータ) (2022-12-01T18:53:06Z) - Reward-Mixing MDPs with a Few Latent Contexts are Learnable [75.17357040707347]
報酬混合マルコフ決定過程(RMMDP)におけるエピソード強化学習の検討
我々のゴールは、そのようなモデルにおける時間段階の累積報酬をほぼ最大化する、ほぼ最適に近いポリシーを学ぶことである。
論文 参考訳(メタデータ) (2022-10-05T22:52:00Z) - On minimal representations of shallow ReLU networks [0.0]
f$の最小表現は$n$、$n+1$または$n+2$のどちらかを使用する。
特に入力層が一次元の場合、最小表現は常に少なくとも$n+1$のニューロンで使用されるが、高次元設定では$n+2$のニューロンを必要とする関数が存在する。
論文 参考訳(メタデータ) (2021-08-12T10:22:24Z) - Deep Neural Networks with ReLU-Sine-Exponential Activations Break Curse
of Dimensionality on H\"older Class [6.476766717110237]
活性化関数としてReLU,sine,2x$のニューラルネットワークを構築した。
スーパー表現力に加えて、ReLU-sine-$2x$ネットワークで実装された関数は(一般化)微分可能である。
論文 参考訳(メタデータ) (2021-02-28T15:57:42Z) - Deep Learning Meets Projective Clustering [66.726500395069]
NLPネットワークを圧縮するための一般的なアプローチは、埋め込み層を行列 $AinmathbbRntimes d$ としてエンコードすることである。
計算幾何学から遠射的クラスタリングに着想を得て、この部分空間を$k$部分空間の集合で置き換えることを提案する。
論文 参考訳(メタデータ) (2020-10-08T22:47:48Z) - Geometric compression of invariant manifolds in neural nets [2.461575510055098]
ニューラルネットワークは、データが$d$次元にあるモデルにおいて、不定形入力空間をいかに圧縮するかを研究する。
勾配勾配勾配で訓練された一重層FCネットワークの場合、第一重みの層は、$d_perp=d-d_parallel$非形式的方向に対してほとんど無関心になる。
次に、圧縮がニューラルカーネル(NTK)の進化を経時的に形作っていることを示し、その最上位の固有ベクトルがより情報的になり、ラベルにより大きな投影を表示する。
論文 参考訳(メタデータ) (2020-07-22T14:43:49Z) - Few-Shot Learning via Learning the Representation, Provably [115.7367053639605]
本稿では,表現学習による少数ショット学習について検討する。
1つのタスクは、ターゲットタスクのサンプルの複雑さを減らすために、$T$ソースタスクと$n_1$データを使用して表現を学習する。
論文 参考訳(メタデータ) (2020-02-21T17:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。