論文の概要: AnyStar: Domain randomized universal star-convex 3D instance
segmentation
- arxiv url: http://arxiv.org/abs/2307.07044v1
- Date: Thu, 13 Jul 2023 20:01:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-17 15:41:06.678948
- Title: AnyStar: Domain randomized universal star-convex 3D instance
segmentation
- Title(参考訳): AnyStar: ドメインランダム化されたユニバーサルスターコンベックス3Dインスタンスセグメンテーション
- Authors: Neel Dey, S. Mazdak Abulnaga, Benjamin Billot, Esra Abaci Turk, P.
Ellen Grant, Adrian V. Dalca, Polina Golland
- Abstract要約: 我々は、ランダムな外観で合成データ、向き、およびブロブのようなオブジェクトをシミュレートするドメインランダム化生成モデルであるAnyStarを提案する。
結果として、生成モデルを用いたネットワークは、目に見えないデータセットからの注釈付き画像を必要としない。
- 参考スコア(独自算出の注目度): 8.670653580154895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Star-convex shapes arise across bio-microscopy and radiology in the form of
nuclei, nodules, metastases, and other units. Existing instance segmentation
networks for such structures train on densely labeled instances for each
dataset, which requires substantial and often impractical manual annotation
effort. Further, significant reengineering or finetuning is needed when
presented with new datasets and imaging modalities due to changes in contrast,
shape, orientation, resolution, and density. We present AnyStar, a
domain-randomized generative model that simulates synthetic training data of
blob-like objects with randomized appearance, environments, and imaging physics
to train general-purpose star-convex instance segmentation networks. As a
result, networks trained using our generative model do not require annotated
images from unseen datasets. A single network trained on our synthesized data
accurately 3D segments C. elegans and P. dumerilii nuclei in fluorescence
microscopy, mouse cortical nuclei in micro-CT, zebrafish brain nuclei in EM,
and placental cotyledons in human fetal MRI, all without any retraining,
finetuning, transfer learning, or domain adaptation. Code is available at
https://github.com/neel-dey/AnyStar.
- Abstract(参考訳): 星凸形状は、核、結節、転移、その他の単位の形で、生体顕微鏡および放射線学にまたがって生じる。
このような構造のための既存のインスタンスセグメンテーションネットワークは、データセットごとに密にラベル付けされたインスタンスでトレーニングされる。
さらに、コントラスト、形状、方向、解像度、密度の変化により、新しいデータセットや画像モダリティが提示される場合、重要な再設計や微調整が必要となる。
anystarは、ランダムな外観、環境、画像物理学を持つblobのようなオブジェクトの合成トレーニングデータをシミュレートし、汎用のstar-convexインスタンスセグメンテーションネットワークを訓練するドメインランダム生成モデルである。
その結果、生成モデルを用いてトレーニングされたネットワークは、目に見えないデータセットからの注釈付き画像を必要としない。
蛍光顕微鏡におけるC. elegans, P. dumerilii核, 微小CTにおけるマウス皮質核, EMにおけるゼブラフィッシュ脳核, ヒト胎児MRIにおける胎盤子葉核は, すべて再構成, 微調整, 転写学習, ドメイン適応を伴わない。
コードはhttps://github.com/neel-dey/anystarで入手できる。
関連論文リスト
- Learning General-Purpose Biomedical Volume Representations using Randomized Synthesis [9.355513913682794]
現在のバイオメディカルファンデーションモデルは、パブリックな3Dデータセットが小さいため、一般化に苦慮している。
本稿では,新しいバイオメディカルコンテキストへの一般化を可能にする,高度に可変なトレーニングサンプルを合成するデータエンジンを提案する。
次に, ボクセルレベルのタスクに対して1つの3Dネットワークをトレーニングするために, データエンジンでシミュレートされたニュアンス画像の変動に対して, ネットワークが安定であるように事前訓練するコントラスト学習手法を開発した。
論文 参考訳(メタデータ) (2024-11-04T18:40:46Z) - μ-Net: A Deep Learning-Based Architecture for μ-CT Segmentation [2.012378666405002]
X線計算マイクロトモグラフィー(mu-CT)は、医学および生物学的サンプルの内部解剖の高解像度な3D画像を生成する非破壊的手法である。
3D画像から関連情報を抽出するには、興味のある領域のセマンティックセグメンテーションが必要である。
本稿では、畳み込みニューラルネットワーク(CNN)を用いて、Carassius auratusの心臓の完全な形態を自動分割する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T15:29:08Z) - Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - 3D Mitochondria Instance Segmentation with Spatio-Temporal Transformers [101.44668514239959]
本稿では,空間的および時間的注意を並列に効率的に計算するハイブリッドエンコーダデコーダフレームワークを提案する。
また,ミトコンドリアインスタンスの領域を背景から支援する訓練中に,意味的クラッタ・バックグラウンドの逆行性障害も導入した。
論文 参考訳(メタデータ) (2023-03-21T17:58:49Z) - NASDM: Nuclei-Aware Semantic Histopathology Image Generation Using
Diffusion Models [3.2996723916635267]
第一種核認識意味組織生成フレームワーク(NASDM)
NASDMは、最大6種類の核型のセマンティック・インスタンス・マスクを与えられた現実的な組織サンプルを合成することができる。
これらの合成画像は、病理学、モデルの検証、既存の核セグメンテーションデータセットの補充に有用である。
論文 参考訳(メタデータ) (2023-03-20T22:16:03Z) - Semi-Supervised Segmentation of Mitochondria from Electron Microscopy
Images Using Spatial Continuity [3.631638087834872]
ミトコンドリアの構造的・形態的・文脈的情報の空間的連続性を利用してミトコンドリアをセグメント化する半教師付き深層学習モデルを提案する。
我々のモデルは、最先端の完全教師付きモデルと同じような性能を達成するが、アノテーション付きトレーニングデータの20%しか必要としない。
論文 参考訳(メタデータ) (2022-06-06T06:52:19Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Learning Signal-Agnostic Manifolds of Neural Fields [50.066449953522685]
ニューラルネットワークを利用して、画像、形状、オーディオ、およびモーダル・オーディオヴィジュアル領域の基盤となる構造を捉える。
GEMの基底多様体を横切ることで、信号領域に新しいサンプルを生成できることが示される。
論文 参考訳(メタデータ) (2021-11-11T18:57:40Z) - 3D fluorescence microscopy data synthesis for segmentation and
benchmarking [0.9922927990501083]
3次元蛍光顕微鏡のための現実的な画像データを生成するために、条件付き生成対向ネットワークを利用することができる。
細胞構造のさらなる位置条件付けにより、位置依存的な強度特性の再構築が可能となる。
パッチワイド動作原理とその後のフルサイズ再組み立て戦略を用いて、任意のサイズと異なる生物の画像データを生成する。
論文 参考訳(メタデータ) (2021-07-21T16:08:56Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。