論文の概要: SAM-OCTA2: Layer Sequence OCTA Segmentation with Fine-tuned Segment Anything Model 2
- arxiv url: http://arxiv.org/abs/2409.09286v1
- Date: Sat, 14 Sep 2024 03:28:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 21:29:12.299851
- Title: SAM-OCTA2: Layer Sequence OCTA Segmentation with Fine-tuned Segment Anything Model 2
- Title(参考訳): SAM-OCTA2:微調整セグメンテーションモデル2による層列OCTAセグメンテーション
- Authors: Xinrun Chen, Chengliang Wang, Haojian Ning, Mengzhan Zhang, Mei Shen, Shiying Li,
- Abstract要約: SAM(Segment Anything Model)バージョン2の微調整には低ランク適応方式が採用されている。
メソッドはSAM-OCTA2と呼ばれ、OCTA-500データセットで実験されている。
正常な2次元の面にFoveal avascular zone(FAZ)を分断し、スキャン層をまたいだ局所血管を効果的に追跡する。
- 参考スコア(独自算出の注目度): 2.314516220934268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmentation of indicated targets aids in the precise analysis of optical coherence tomography angiography (OCTA) samples. Existing segmentation methods typically perform on 2D projection targets, making it challenging to capture the variance of segmented objects through the 3D volume. To address this limitation, the low-rank adaptation technique is adopted to fine-tune the Segment Anything Model (SAM) version 2, enabling the tracking and segmentation of specified objects across the OCTA scanning layer sequence. To further this work, a prompt point generation strategy in frame sequence and a sparse annotation method to acquire retinal vessel (RV) layer masks are proposed. This method is named SAM-OCTA2 and has been experimented on the OCTA-500 dataset. It achieves state-of-the-art performance in segmenting the foveal avascular zone (FAZ) on regular 2D en-face and effectively tracks local vessels across scanning layer sequences. The code is available at: https://github.com/ShellRedia/SAM-OCTA2.
- Abstract(参考訳): 光コヒーレンス・トモグラフィー(OCTA)試料の精密解析における目標のセグメンテーション
既存のセグメンテーション法は2次元プロジェクションターゲット上での動作が一般的であり、3次元ボリュームを通してセグメンテーション対象の分散を捉えることは困難である。
この制限に対処するため、ローランク適応手法を用いてSegment Anything Model (SAM) バージョン2を微調整し、OCTAスキャン層シークエンスで特定対象の追跡とセグメンテーションを可能にする。
この研究をさらに進めるために、フレームシーケンスにおけるプロンプトポイント生成戦略と、網膜血管(RV)層マスクを取得するスパースアノテーション手法を提案する。
この手法はSAM-OCTA2と呼ばれ、OCTA-500データセットで実験されている。
正常な2次元の面にFoveal avascular zone(FAZ)を分断し、スキャン層をまたいだ局所血管を効果的に追跡する。
コードは、https://github.com/ShellRedia/SAM-OCTA2.comで入手できる。
関連論文リスト
- SAM2-UNet: Segment Anything 2 Makes Strong Encoder for Natural and Medical Image Segmentation [51.90445260276897]
我々は,Segment Anything Model 2 (SAM2) がU字型セグメンテーションモデルの強力なエンコーダであることを証明した。
本稿では, SAM2-UNet と呼ばれる, 汎用画像分割のための簡易かつ効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T17:55:38Z) - PosSAM: Panoptic Open-vocabulary Segment Anything [58.72494640363136]
PosSAMはオープン・ボキャブラリ・パノプティ・セグメンテーション・モデルであり、Segment Anything Model(SAM)の強みを、エンドツーエンドのフレームワークで視覚ネイティブのCLIPモデルと統合する。
本稿では,マスクの質を適応的に向上し,各画像の推論中にオープン語彙分類の性能を高めるマスク対応選択組立アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-14T17:55:03Z) - Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retinal OCT Images with Full
and Sparse Annotations [32.69359482975795]
本研究は, ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を基盤として, OCTボリュームから連続した3次元網膜層表面を得るための新しい枠組みを提案する。
人工的データセットと3つのパブリックな臨床データセットの実験により、我々のフレームワークは、潜在的運動補正のためにBスキャンを効果的に調整できることを示した。
論文 参考訳(メタデータ) (2023-12-04T08:32:31Z) - SAM-OCTA: Prompting Segment-Anything for OCTA Image Segmentation [2.452498006404167]
OCTA画像の局所分割のためのSAM-OCTA法を提案する。
低ランク適応(LoRA)を用いたSAM(Pre-trained segment Any Model)の微調整法
論文 参考訳(メタデータ) (2023-10-11T04:14:59Z) - SAM-OCTA: A Fine-Tuning Strategy for Applying Foundation Model to OCTA
Image Segmentation Tasks [2.8743451550676866]
低ランク適応手法を基礎モデル微調整に適用し,それに対応するプロンプトポイント生成戦略を提案する。
この手法はSAM-OCTAと呼ばれ、OCTA-500データセットで実験されている。
本手法は,最先端の性能指標を達成しつつ,局所血管の分断と動脈静脈の分断を効果的に行う。
論文 参考訳(メタデータ) (2023-09-21T03:41:08Z) - A Deep Learning-based Global and Segmentation-based Semantic Feature
Fusion Approach for Indoor Scene Classification [0.6578923037198714]
本研究ではセグメンテーションマスクを用いてシーン横断のセグメンテーションカテゴリの2次元空間配置を求める手法を提案する。
2分岐ネットワークであるGS2F2Appは、RGB画像から抽出したCNNベースのグローバル機能と、提案したSSFから抽出したセグメンテーションベースの機能を利用する。
論文 参考訳(メタデータ) (2023-02-13T15:12:11Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - Meta-RangeSeg: LiDAR Sequence Semantic Segmentation Using Multiple
Feature Aggregation [21.337629798133324]
メタランジセグと呼ばれるLiDAR配列のセマンティックセグメンテーションに対する新しいアプローチを提案する。
空間時間情報をキャプチャするために、新しい範囲残像表現を導入する。
マルチスケール機能を得るために、効率的なU-Netバックボーンが使用される。
論文 参考訳(メタデータ) (2022-02-27T14:46:13Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - Dual Attention GANs for Semantic Image Synthesis [101.36015877815537]
本稿では,写真リアリスティック・セマンティック・一貫性のあるイメージを合成するための新しいデュアルアテンションGAN(DAGAN)を提案する。
また,2つの新しいモジュール,すなわち位置対応空間アテンションモジュール(SAM)と規模対応チャネルアテンションモジュール(CAM)を提案する。
DAGANは、より少ないモデルパラメータを使用しながら、最先端のメソッドよりも驚くほど優れた結果が得られる。
論文 参考訳(メタデータ) (2020-08-29T17:49:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。