論文の概要: SAM-FNet: SAM-Guided Fusion Network for Laryngo-Pharyngeal Tumor Detection
- arxiv url: http://arxiv.org/abs/2408.05426v1
- Date: Sat, 10 Aug 2024 04:14:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 19:11:07.020921
- Title: SAM-FNet: SAM-Guided Fusion Network for Laryngo-Pharyngeal Tumor Detection
- Title(参考訳): SAM-FNet:喉頭咽頭腫瘍検出のためのSAM-Guided Fusion Network
- Authors: Jia Wei, Yun Li, Meiyu Qiu, Hongyu Chen, Xiaomao Fan, Wenbin Lei,
- Abstract要約: 喉頭咽頭腫瘍検出のための新しいSAM誘導核融合ネットワーク(SAM-FNet)を提案する。
Segment Anything Model(SAM)の強力なオブジェクトセグメンテーション機能を利用することで、SAM-FNetにSAMを導入し、病変領域を正確にセグメンテーションする。
さらに,グローバルブランチとローカルブランチ間の識別的特徴を捉えるため,GANライクな特徴最適化(GFO)モジュールを提案する。
- 参考スコア(独自算出の注目度): 11.90977635214196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Laryngo-pharyngeal cancer (LPC) is a highly fatal malignant disease affecting the head and neck region. Previous studies on endoscopic tumor detection, particularly those leveraging dual-branch network architectures, have shown significant advancements in tumor detection. These studies highlight the potential of dual-branch networks in improving diagnostic accuracy by effectively integrating global and local (lesion) feature extraction. However, they are still limited in their capabilities to accurately locate the lesion region and capture the discriminative feature information between the global and local branches. To address these issues, we propose a novel SAM-guided fusion network (SAM-FNet), a dual-branch network for laryngo-pharyngeal tumor detection. By leveraging the powerful object segmentation capabilities of the Segment Anything Model (SAM), we introduce the SAM into the SAM-FNet to accurately segment the lesion region. Furthermore, we propose a GAN-like feature optimization (GFO) module to capture the discriminative features between the global and local branches, enhancing the fusion feature complementarity. Additionally, we collect two LPC datasets from the First Affiliated Hospital (FAHSYSU) and the Sixth Affiliated Hospital (SAHSYSU) of Sun Yat-sen University. The FAHSYSU dataset is used as the internal dataset for training the model, while the SAHSYSU dataset is used as the external dataset for evaluating the model's performance. Extensive experiments on both datasets of FAHSYSU and SAHSYSU demonstrate that the SAM-FNet can achieve competitive results, outperforming the state-of-the-art counterparts. The source code of SAM-FNet is available at the URL of https://github.com/VVJia/SAM-FNet.
- Abstract(参考訳): 喉頭咽頭癌 (Laryngo-pharyngeal cancer, LPC) は, 頭頸部の悪性腫瘍である。
従来の内視鏡的腫瘍検出,特にデュアルブランチネットワークアーキテクチャを利用した研究は,腫瘍検出の大幅な進歩を示している。
これらの研究は、グローバルな特徴抽出とローカルな特徴抽出を効果的に統合することにより、診断精度を向上させるための二重ブランチネットワークの可能性を強調した。
しかし、病変領域を正確に特定し、グローバルブランチとローカルブランチ間の識別的特徴情報をキャプチャする能力はまだ限られている。
これらの課題に対処するために,喉頭・咽頭腫瘍検出のための2分岐ネットワークであるSAM-FNetを提案する。
Segment Anything Model(SAM)の強力なオブジェクトセグメンテーション機能を利用することで、SAM-FNetにSAMを導入し、病変領域を正確にセグメンテーションする。
さらに,GAN-like feature optimization (GFO) モジュールを提案し,グローバルブランチとローカルブランチ間の識別的特徴を捕捉し,融合特徴の相補性を向上する。
また,サンヤットセン大学第1附属病院(FAHSYSU)と第6附属病院(SAHSYSU)の2つのLPCデータセットを収集した。
FAHSYSUデータセットはモデルをトレーニングするための内部データセットとして使用され、SAHSYSUデータセットはモデルのパフォーマンスを評価するための外部データセットとして使用される。
FAHSYSUとSAHSYSUの両方のデータセットに対する大規模な実験は、SAM-FNetが競争的な結果が得られることを示した。
SAM-FNetのソースコードはhttps://github.com/VVJia/SAM-FNetで公開されている。
関連論文リスト
- SAM-Swin: SAM-Driven Dual-Swin Transformers with Adaptive Lesion Enhancement for Laryngo-Pharyngeal Tumor Detection [12.86763797167925]
喉頭咽頭癌(Laryngo-pharyngeal carcinoma, LPC)は, 頭頸部の悪性腫瘍である。
近年の腫瘍検出の進歩は,グローバルな特徴抽出と局所的な特徴抽出を統合し,診断精度を著しく向上させた。
喉頭咽頭腫瘍検出のためのSAM-Swin変換器であるSAM-Swinを提案する。
論文 参考訳(メタデータ) (2024-10-29T07:32:57Z) - DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - Segment Anything Model-guided Collaborative Learning Network for
Scribble-supervised Polyp Segmentation [45.15517909664628]
ポリープのセグメンテーションは、初期におけるポリープの正確な位置決定に重要な役割を担っている。
診断中の医師によるポリープ画像に対するピクセルワイドアノテーションは、時間と費用の両方がかかる。
本稿では,スクリブル制御ポリプセグメンテーションのためのSAM誘導協調学習ネットワーク(SAM-CLNet)を提案する。
論文 参考訳(メタデータ) (2023-12-01T03:07:13Z) - Exploring SAM Ablations for Enhancing Medical Segmentation in Radiology
and Pathology [2.5462695047893025]
Segment Anything Model(SAM)は、さまざまなドメインにまたがるセグメンテーション課題に対処するための、有望なフレームワークとして登場した。
SAMの微調整について検討し、セグメンテーション結果の精度と信頼性にその影響を深く評価する。
先進的なセグメンテーション技術と医療の要求要件のギャップを埋めることを目指しています。
論文 参考訳(メタデータ) (2023-09-30T21:58:12Z) - SAMedOCT: Adapting Segment Anything Model (SAM) for Retinal OCT [3.2495192768429924]
Segment Anything Model (SAM) は画像セグメンテーションの分野で大きな注目を集めている。
我々は,RETOUCH チャレンジによる大規模な OCT データセット上で,SAM とその適応の包括的評価を行う。
網膜CTスキャンにおいてSAMの有効性は強力なセグメンテーションモデルとして応用されたが,確立された方法には遅れがみられた。
論文 参考訳(メタデータ) (2023-08-18T06:26:22Z) - SurgicalSAM: Efficient Class Promptable Surgical Instrument Segmentation [65.52097667738884]
そこで本研究では,SAMの知識と外科的特異的情報を統合し,汎用性を向上させるための,新しいエンドツーエンドの効率的なチューニング手法であるScientialSAMを紹介した。
具体的には,タイピングのための軽量なプロトタイプベースクラスプロンプトエンコーダを提案し,クラスプロトタイプから直接プロンプト埋め込みを生成する。
また,手術器具カテゴリー間のクラス間差異の低さに対応するために,コントラッシブなプロトタイプ学習を提案する。
論文 参考訳(メタデータ) (2023-08-17T02:51:01Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。