論文の概要: pyssam -- a Python library for statistical modelling of biomedical shape
and appearance
- arxiv url: http://arxiv.org/abs/2301.04416v1
- Date: Wed, 11 Jan 2023 11:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 18:05:59.241797
- Title: pyssam -- a Python library for statistical modelling of biomedical shape
and appearance
- Title(参考訳): pyssam - 生物医学的形状と外観の統計モデリングのためのpythonライブラリ
- Authors: Josh Williams, Ali Ozel, Uwe Wolfram
- Abstract要約: pyssamは統計形状と外観モデルを作成するPythonライブラリである。
我々のライブラリは入力データのアライメントとスケーリングを行い、SSAMを作成します。
出力SSAMは、集団全体にわたる形状変化をパラメータ化および定量化するために使用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: pyssam is a Python library for creating statistical shape and appearance
models (SSAMs) for biological (and other) shapes such as bones, lungs or other
organs. A point cloud best describing the anatomical 'landmarks' of the organ
are required from each sample in a small population as an input. Additional
information such as landmark gray-value can be included to incorporate joint
correlations of shape and 'appearance' into the model. Our library performs
alignment and scaling of the input data and creates a SSAM based on covariance
across the population. The output SSAM can be used to parameterise and quantify
shape change across a population. pyssam is a small and low dependency codebase
with examples included as Jupyter notebooks for several common SSAM
computations. The given examples can easily be extended to alternative
datasets, and also alternative tasks such as medical image segmentation by
incorporating a SSAM as a constraint for segmented organs.
- Abstract(参考訳): pyssamはpythonライブラリで、骨、肺、その他の臓器などの生物学的(および他の)形状のための統計形状および外観モデル(ssam)を作成する。
臓器の解剖学的「ランドマーク」を最もよく記述する点雲は、少ない集団のサンプルから入力として要求される。
ランドマークグレー値のような追加情報は、モデルに形状と「出現」のジョイント相関を組み込むために含めることができる。
本ライブラリは,入力データのアライメントとスケーリングを行い,集団間の共分散に基づくSSAMを生成する。
出力SSAMは、集団全体の形状変化をパラメータ化し定量化するために使用することができる。
pyssamは、いくつかの一般的なSSAM計算のためのJupyterノートブックのような、小さくて低依存性のコードベースである。
与えられた例は、別のデータセットに簡単に拡張でき、また、SSAMをセグメント化された臓器の制約として組み込むことで、医療画像のセグメンテーションのような代替タスクにも拡張できる。
関連論文リスト
- Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - WSI-SAM: Multi-resolution Segment Anything Model (SAM) for histopathology whole-slide images [8.179859593451285]
病理画像の正確なオブジェクト分割機能を備えたWSI-SAM, Segment Anything Model (SAM) を提案する。
トレーニングオーバーヘッドを最小限にしながら、トレーニング済みの知識を完全に活用するために、SAMは凍結し、最小限のパラメータしか導入しません。
本モデルでは, 膵管癌 in situ (DCIS) セグメンテーションタスクと乳癌転移セグメンテーションタスクにおいて, SAMを4.1, 2.5パーセント上回った。
論文 参考訳(メタデータ) (2024-03-14T10:30:43Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - CEmb-SAM: Segment Anything Model with Condition Embedding for Joint
Learning from Heterogeneous Datasets [3.894987097246834]
我々は異種データセットから共同学習する問題を考察する。
異種データセットを1つのデータセットにマージし、各コンポーネントデータセットをサブグループとして参照します。
実験の結果,Cemb-SAMは末梢神経および乳癌に対する超音波画像分割法において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2023-08-14T06:22:49Z) - AdaptiveSAM: Towards Efficient Tuning of SAM for Surgical Scene
Segmentation [49.59991322513561]
本稿では,新しいデータセットに迅速かつ効率的に適応できるSegment-Anything(SAM)の適応的な修正を提案する。
AdaptiveSAMは、フリーフォームテキストをプロンプトとして使用し、ラベル名のみをプロンプトとして、興味のあるオブジェクトをセグメント化することができる。
実験の結果,AdaptiveSAMは様々な医用画像データセットの最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-07T17:12:54Z) - SAM-Path: A Segment Anything Model for Semantic Segmentation in Digital
Pathology [28.62539784951823]
Segment Anything Model (SAM) のような基礎モデルは、最近セグメンテーションタスクで普遍的に使用されるように提案されている。
そこで本研究では,学習可能なクラスプロンプトを導入し,また病理基盤モデルの導入によりさらなる拡張を行うことによって,SAMをセマンティックセマンティックセマンティックセマンティクスに適用する。
我々のフレームワークSAM-Pathは、人間の入力プロンプトを使わずに、デジタル病理のセマンティックセマンティックセグメンテーションを行うSAMの能力を高める。
論文 参考訳(メタデータ) (2023-07-12T20:15:25Z) - SAMRS: Scaling-up Remote Sensing Segmentation Dataset with Segment
Anything Model [85.85899655118087]
我々はSAMRSと呼ばれる大規模RSセグメンテーションデータセットを生成するための効率的なパイプラインを開発する。
SAMRSは完全に105,090の画像と1,668,241のインスタンスを持ち、既存の高解像度RSセグメンテーションデータセットを数桁上回っている。
論文 参考訳(メタデータ) (2023-05-03T10:58:07Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - SubOmiEmbed: Self-supervised Representation Learning of Multi-omics Data
for Cancer Type Classification [4.992154875028543]
マルチオミクスデータの統合と解析により腫瘍の広い視野が得られ,臨床診断の精度が向上する。
SubOmiEmbedは、非常に小さなネットワークを持つベースラインであるOmiEmbedに匹敵する結果を生成する。
この作業は、突然変異に基づくゲノムデータを統合するために改善される。
論文 参考訳(メタデータ) (2022-02-03T16:39:09Z) - MURAL: An Unsupervised Random Forest-Based Embedding for Electronic
Health Record Data [59.26381272149325]
異なる変数型でデータを表現するための教師なしランダムフォレストを提案する。
muraL forestsは、ノード分割変数がランダムに選択される一連の決定ツリーで構成されている。
提案手法を用いることで,競合するアプローチよりも正確なデータの視覚化と分類が可能であることを示す。
論文 参考訳(メタデータ) (2021-11-19T22:02:21Z) - SAM: Self-supervised Learning of Pixel-wise Anatomical Embeddings in
Radiological Images [23.582516309813425]
自己監督型解剖学的eMbedding(SAM)を導入し,ラベルのない画像から本質的な構造を学習する。
SAMは、解剖学的位置または身体部分を記述する各画像ピクセルに対してセマンティック埋め込みを生成する。
2次元および3次元画像モダリティを持つ複数のタスクにおいてSAMの有効性を示す。
論文 参考訳(メタデータ) (2020-12-04T03:31:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。