論文の概要: Polyp-DAM: Polyp segmentation via depth anything model
- arxiv url: http://arxiv.org/abs/2402.02298v1
- Date: Sat, 3 Feb 2024 23:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 20:51:49.781288
- Title: Polyp-DAM: Polyp segmentation via depth anything model
- Title(参考訳): Polyp-DAM:Deep Any ModelによるPolypセグメンテーション
- Authors: Zhuoran Zheng and Chen Wu and Wei Wang and Yeying Jin and Xiuyi Jia
- Abstract要約: 本稿では,ポリプセグメンテーションモデルに先立って深度を提供するためにDAM(Depth Anything Model)を活用することで,ポリプセグメンテーションモデリングの新しい視点を開拓する。
入力されたポリプ画像は、最初に凍結されたDAMを通過して深度マップを生成する。
深度マップと入力されたポリプ画像は、マルチスケールの畳み込みニューラルネットワークに入力され、セグメント化された画像を生成する。
- 参考スコア(独自算出の注目度): 18.845058748710823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, large models (Segment Anything model) came on the scene to provide
a new baseline for polyp segmentation tasks. This demonstrates that large
models with a sufficient image level prior can achieve promising performance on
a given task. In this paper, we unfold a new perspective on polyp segmentation
modeling by leveraging the Depth Anything Model (DAM) to provide depth prior to
polyp segmentation models. Specifically, the input polyp image is first passed
through a frozen DAM to generate a depth map. The depth map and the input polyp
images are then concatenated and fed into a convolutional neural network with
multiscale to generate segmented images. Extensive experimental results
demonstrate the effectiveness of our method, and in addition, we observe that
our method still performs well on images of polyps with noise. The URL of our
code is \url{https://github.com/zzr-idam/Polyp-DAM}.
- Abstract(参考訳): 最近、大きなモデル(Segment Anything Model)が登場し、Polypセグメンテーションタスクのための新しいベースラインを提供するようになった。
これにより、十分なイメージレベルを優先した大きなモデルが、与えられたタスクで有望なパフォーマンスを達成できることが示される。
本稿では,ポリプセグメンテーションモデルに先立って深度を提供するためにDAM(Depth Anything Model)を活用することで,ポリプセグメンテーションモデリングの新しい視点を開拓する。
具体的には、入力ポリプ画像が最初に凍結DAMを通過して深度マップを生成する。
深度マップと入力されたポリプ画像は結合され、マルチスケールの畳み込みニューラルネットワークに供給され、セグメント化された画像を生成する。
広範な実験結果から,提案手法の有効性が示され,ノイズのあるポリープ画像でも良好に機能することを確認した。
コードのURLは \url{https://github.com/zzr-idam/Polyp-DAM} です。
関連論文リスト
- Polyp segmentation in colonoscopy images using DeepLabV3++ [3.0182171147100076]
DeepLabv3+アーキテクチャの拡張版であるDeepLabv3++モデルを紹介します。
提案モデルでは,MSPPブロック内に多様な分離可能な畳み込み層とアテンション機構を組み込み,マルチスケールおよび指向性の特徴を捉える能力を向上させる。
実験により、DeepLabV3++はポリプセグメンテーションタスクにおいて、最先端のモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-07-27T19:24:55Z) - ProMamba: Prompt-Mamba for polyp segmentation [12.008624337064521]
本稿では,最新のVision-Mambaとプロンプト技術を組み合わせた,Prompt-Mambaに基づくセグメンテーションモデルを提案する。
我々は、最初にビジョン・マンバアーキテクチャをポリプセグメンテーションに適用し、最初にポリプセグメンテーションモデルでプロンプト技術を利用する。
本モデルでは,6つのデータセットに対して,従来の最先端手法を平均5%上回るセグメンテーションタスクを効率的に達成する。
論文 参考訳(メタデータ) (2024-03-20T15:08:57Z) - M^2UNet: MetaFormer Multi-scale Upsampling Network for Polyp
Segmentation [10.560963837197583]
近年,ポリプのセグメンテーションが注目され,様々な手法が提案されている。
この課題に対処するために、CNNとTransformerを統合するベースラインとして導入されたMetaFormerとUNetフレームワークを組み合わせて、Multi-scale Upsampling Block(MU)を統合することを提案する。
この単純なモジュールは、浅いデコーダステージの複数の受容フィールドパスを探索し、より高いステージを追加して、より優れた特徴表現を集約することで、マルチレベル情報を組み合わせることができる。
論文 参考訳(メタデータ) (2023-06-14T16:03:22Z) - Lesion-aware Dynamic Kernel for Polyp Segmentation [49.63274623103663]
ポリープセグメンテーションのための障害対応動的ネットワーク(LDNet)を提案する。
従来のU字型エンコーダ・デコーダ構造であり、動的カーネル生成と更新スキームが組み込まれている。
この単純だが効果的なスキームは、我々のモデルに強力なセグメンテーション性能と一般化能力を与える。
論文 参考訳(メタデータ) (2023-01-12T09:53:57Z) - BoxPolyp:Boost Generalized Polyp Segmentation Using Extra Coarse
Bounding Box Annotations [79.17754846553866]
我々は、正確なマスクと余分な粗いボックスアノテーションをフル活用するための強化されたBoxPolypモデルを提案する。
実際には、従来のポリプセグメンテーションモデルの過度に適合する問題を緩和するためにボックスアノテーションが適用される。
提案手法は従来の最先端手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2022-12-07T07:45:50Z) - TGANet: Text-guided attention for improved polyp segmentation [2.3293678240472517]
大腸内視鏡は金標準法であるが,操作性が高い。前駆体である自動ポリープセグメンテーションは早期の大腸癌の再発率とタイムリーな治療を最小化することができる。
トレーニング中にテキストアテンションの形でサイズとポリプ数に関連する特徴を活用できる。
提案するテキスト誘導型アテンションネットワーク(TGANet)は,異なるデータセットにおける可変サイズポリープによく対応できる。
論文 参考訳(メタデータ) (2022-05-09T13:53:26Z) - PolyNet: Polynomial Neural Network for 3D Shape Recognition with
PolyShape Representation [51.147664305955495]
3次元形状表現とその処理は3次元形状認識に大きな影響を及ぼす。
我々は、ディープニューラルネットワークに基づく手法(PolyNet)と特定のポリゴン表現(PolyShape)を提案する。
本研究では,3次元形状分類と検索作業におけるPolyNetの長所と長所を実証した。
論文 参考訳(メタデータ) (2021-10-15T06:45:59Z) - Polyp-PVT: Polyp Segmentation with Pyramid Vision Transformers [124.01928050651466]
本稿では,Polyp-PVTと呼ばれる新しいタイプのPolypセグメンテーション手法を提案する。
提案モデルであるPolyp-PVTは,特徴の雑音を効果的に抑制し,その表現能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-08-16T07:09:06Z) - Automatic Polyp Segmentation via Multi-scale Subtraction Network [100.94922587360871]
臨床的には、正確なポリープセグメンテーションは大腸癌の早期発見に重要な情報を提供する。
既存のほとんどの手法はU字型構造に基づいており、デコーダで段階的に異なるレベルの特徴を融合させるために要素ワイド付加または結合を用いる。
大腸内視鏡画像からポリプを抽出するマルチスケールサブトラクションネットワーク(MSNet)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:54:07Z) - Few-Shot Domain Adaptation with Polymorphic Transformers [50.128636842853155]
1セットの医療画像でトレーニングされたディープニューラルネットワーク(DNN)は、しばしば目に見えないテスト画像に対して深刻なパフォーマンス低下を経験する。
少数のアノテーションで訓練されたモデルを適用するという、ほとんどショットのドメイン適応は、この場合非常に実用的で有用である。
本稿では,任意のDNNバックボーンに組み込んだポリモルフィックトランス (Polymorphic Transformer) を提案する。
論文 参考訳(メタデータ) (2021-07-10T10:08:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。