論文の概要: SAM++: Enhancing Anatomic Matching using Semantic Information and
Structural Inference
- arxiv url: http://arxiv.org/abs/2306.13988v1
- Date: Sat, 24 Jun 2023 14:46:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 17:40:17.372332
- Title: SAM++: Enhancing Anatomic Matching using Semantic Information and
Structural Inference
- Title(参考訳): SAM++:意味情報と構造推論を用いた解剖学的マッチングの強化
- Authors: Xiaoyu Bai, Yong Xia
- Abstract要約: 本稿では,新しい固定点マッチング機構を用いて外観と意味の埋め込みを学習するフレームワークを提案する。
我々はSAM++フレームワークを2つの困難なタスクでテストし、SAMのパフォーマンスを大幅に改善した。
- 参考スコア(独自算出の注目度): 24.902835211573628
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical images like CT and MRI provide detailed information about the
internal structure of the body, and identifying key anatomical structures from
these images plays a crucial role in clinical workflows. Current methods treat
it as a registration or key-point regression task, which has limitations in
accurate matching and can only handle predefined landmarks. Recently, some
methods have been introduced to address these limitations. One such method,
called SAM, proposes using a dense self-supervised approach to learn a distinct
embedding for each point on the CT image and achieving promising results.
Nonetheless, SAM may still face difficulties when dealing with structures that
have similar appearances but different semantic meanings or similar semantic
meanings but different appearances. To overcome these limitations, we propose
SAM++, a framework that simultaneously learns appearance and semantic
embeddings with a novel fixed-points matching mechanism. We tested the SAM++
framework on two challenging tasks, demonstrating a significant improvement
over the performance of SAM and outperforming other existing methods.
- Abstract(参考訳): CTやMRIなどの医療画像は、身体の内部構造に関する詳細な情報を提供し、これらの画像から重要な解剖学的構造を特定することは、臨床ワークフローにおいて重要な役割を果たす。
現在のメソッドでは登録またはキーポイント回帰タスクとして扱われており、正確なマッチングには制限があり、事前定義されたランドマークしか扱えない。
近年,これらの制限に対処する手法がいくつか導入されている。
このような手法の1つはSAMと呼ばれ、密度の高い自己教師付きアプローチを用いてCT画像上の各点に対する個別の埋め込みを学習し、有望な結果を達成することを提案する。
それでもSAMは、類似した外観を持つが異なる意味の意味や類似した意味を持つ構造を扱う際にも困難に直面している。
これらの制約を克服するために,新しい固定点マッチング機構で外観と意味の埋め込みを同時に学習するSAM++を提案する。
sam++フレームワークを2つの困難なタスクでテストし、samのパフォーマンスよりも大幅に改善し、他の既存のメソッドよりも優れています。
関連論文リスト
- SAM-CP: Marrying SAM with Composable Prompts for Versatile Segmentation [88.80792308991867]
Segment Anything Model (SAM)は、イメージピクセルをパッチにグループ化する機能を示しているが、セグメンテーションにそれを適用することは依然として大きな課題に直面している。
本稿では,SAM-CPを提案する。SAM-CPはSAM以外の2種類の構成可能なプロンプトを確立し,多目的セグメンテーションのために構成する単純な手法である。
実験により、SAM-CPはオープンドメインとクローズドドメインの両方においてセマンティック、例、およびパノプティックセグメンテーションを達成することが示された。
論文 参考訳(メタデータ) (2024-07-23T17:47:25Z) - Open-Vocabulary SAM: Segment and Recognize Twenty-thousand Classes Interactively [69.97238935096094]
Open-Vocabulary SAMはSAMにインスパイアされたモデルであり、対話的なセグメンテーションと認識のために設計されている。
約22,000のクラスを分類・認識できる。
論文 参考訳(メタデータ) (2024-01-05T18:59:22Z) - Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [50.62725807357586]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - SurgicalPart-SAM: Part-to-Whole Collaborative Prompting for Surgical Instrument Segmentation [66.21356751558011]
Segment Anything Model (SAM)は、ジェネリックオブジェクトセグメンテーションの約束を示し、様々なアプリケーションに可能性を提供します。
既存の方法では、SAMベースのフレームワークを手術データにチューニングすることで、手術器具セグメンテーション(SIS)にSAMを適用している。
本稿では,楽器構造知識をSAMの汎用知識と明確に統合する新しいSAM効率的なチューニング手法であるStuial Part-SAMを提案する。
論文 参考訳(メタデータ) (2023-12-22T07:17:51Z) - Multi-Prompt Fine-Tuning of Foundation Models for Enhanced Medical Image
Segmentation [10.946806607643689]
Segment Anything Model (SAM) は、自然画像セグメンテーションの革命的進歩を導入した強力な基礎モデルである。
本研究では,SAMのイメージ毎に複数のプロンプトをバンドルして処理する機能を活用した,新しい微調整フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-03T19:05:00Z) - Matching in the Wild: Learning Anatomical Embeddings for Multi-Modality
Images [28.221419419614183]
放射線療法士は、両方のモダリティからの情報を効果的に活用するために、MR/CT画像の正確な登録を必要とする。
近年の学習に基づく手法は, 剛体/ファインステップにおいて有望な結果を示した。
そこで我々は,クロスモダリティマッチングを可能にするCross-SAMと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T11:49:06Z) - SAM Meets Robotic Surgery: An Empirical Study in Robustness Perspective [21.2080716792596]
Segment Anything Model (SAM) は意味的セグメンテーションの基礎モデルである。
ロボット手術領域におけるSAMのロバスト性とゼロショット一般化性について検討した。
論文 参考訳(メタデータ) (2023-04-28T08:06:33Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - SAM: Self-supervised Learning of Pixel-wise Anatomical Embeddings in
Radiological Images [23.582516309813425]
自己監督型解剖学的eMbedding(SAM)を導入し,ラベルのない画像から本質的な構造を学習する。
SAMは、解剖学的位置または身体部分を記述する各画像ピクセルに対してセマンティック埋め込みを生成する。
2次元および3次元画像モダリティを持つ複数のタスクにおいてSAMの有効性を示す。
論文 参考訳(メタデータ) (2020-12-04T03:31:20Z) - Panoptic Feature Fusion Net: A Novel Instance Segmentation Paradigm for
Biomedical and Biological Images [91.41909587856104]
本稿では,本研究における意味的特徴とインスタンス的特徴を統一するPanoptic Feature Fusion Net(PFFNet)を提案する。
提案するPFFNetには,インスタンス予測を意味的特徴に組み込むための残注意特徴融合機構が組み込まれている。
様々なバイオメディカルおよび生物学的データセットにおいて、最先端のいくつかの手法を上回ります。
論文 参考訳(メタデータ) (2020-02-15T09:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。