論文の概要: DeNVeR: Deformable Neural Vessel Representations for Unsupervised Video Vessel Segmentation
- arxiv url: http://arxiv.org/abs/2406.01591v2
- Date: Fri, 04 Oct 2024 14:36:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-07 15:07:07.510544
- Title: DeNVeR: Deformable Neural Vessel Representations for Unsupervised Video Vessel Segmentation
- Title(参考訳): DeNVeR:unsupervised Video Vessel Segmentationのための変形可能なニューラル容器表現
- Authors: Chun-Hung Wu, Shih-Hong Chen, Chih-Yao Hu, Hsin-Yu Wu, Kai-Hsin Chen, Yu-You Chen, Chih-Hai Su, Chih-Kuo Lee, Yu-Lun Liu,
- Abstract要約: Deformable Neural Vessel Representations (DeNVeR)は、X線ビデオにおける血管のセグメンテーションの教師なしアプローチである。
DeNVeRは光フローと層分離を使用し、テストタイムトレーニングを通じてセグメンテーション精度と適応性を向上する。
本稿では,画像診断と治療計画のための堅牢でデータ効率のよいツールとして,医用画像の進歩を示す。
- 参考スコア(独自算出の注目度): 3.1977656204331684
- License:
- Abstract: This paper presents Deformable Neural Vessel Representations (DeNVeR), an unsupervised approach for vessel segmentation in X-ray videos without annotated ground truth. DeNVeR uses optical flow and layer separation, enhancing segmentation accuracy and adaptability through test-time training. A key component of our research is the introduction of the XACV dataset, the first X-ray angiography coronary video dataset with high-quality, manually labeled segmentation ground truth. Our evaluation demonstrates that DeNVeR outperforms current state-of-the-art methods in vessel segmentation. This paper marks an advance in medical imaging, providing a robust, data-efficient tool for disease diagnosis and treatment planning and setting a new standard for future research in video vessel segmentation. See our project page for video results at https://kirito878.github.io/DeNVeR/.
- Abstract(参考訳): 本稿では,X線ビデオにおける非教師なしの血管分割手法であるDeformable Neural Vessel Representation (DeNVeR)を提案する。
DeNVeRは光フローと層分離を使用し、テストタイムトレーニングを通じてセグメンテーション精度と適応性を向上する。
我々の研究の重要な要素はXACVデータセットの導入である。これは、高品質で手動でセグメンテーショングラウンド真理をラベル付けした最初のX線冠動脈造影ビデオデータセットである。
DeNVeRは血管セグメンテーションの最先端手法よりも優れていることを示す。
本稿では, 医用画像の進歩, 疾患診断・治療計画のための堅牢でデータ効率のよいツールの提供, ビデオ血管セグメンテーションにおける新たな研究基準の策定について述べる。
ビデオ結果のプロジェクトページはhttps://kirito878.github.io/DeNVeR/。
関連論文リスト
- CXPMRG-Bench: Pre-training and Benchmarking for X-ray Medical Report Generation on CheXpert Plus Dataset [14.911363203907008]
X線画像に基づく医療報告生成は、診断上の負担と患者待ち時間を著しく削減することができる。
我々は、CheXpert Plusデータセット上で、既存の主流X線レポート生成モデルと大規模言語モデル(LLM)の包括的なベンチマークを行う。
自己教師付き自己回帰生成やX線レポートによるコントラスト学習を含む,多段階事前学習戦略を用いたX線画像生成のための大規模モデルを提案する。
論文 参考訳(メタデータ) (2024-10-01T04:07:01Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - MLVICX: Multi-Level Variance-Covariance Exploration for Chest X-ray Self-Supervised Representation Learning [6.4136876268620115]
MLVICXは、胸部X線画像からの埋め込みの形でリッチな表現をキャプチャするアプローチである。
自己教師付き胸部X線表現学習におけるMLVICXの性能を示す。
論文 参考訳(メタデータ) (2024-03-18T06:19:37Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - RAVIR: A Dataset and Methodology for the Semantic Segmentation and
Quantitative Analysis of Retinal Arteries and Veins in Infrared Reflectance
Imaging [7.316426736150123]
Infrared Reflectance (IR) 画像における網膜動脈と静脈のセグメンテーションのための新しいデータセット RAVIR を提案する。
本稿では,網膜動脈と静脈のセマンティックセグメンテーションのための,新しい深層学習手法を提案する。
本実験は,SegRAVIRの有効性を検証し,最先端モデルと比較して優れた性能を示した。
論文 参考訳(メタデータ) (2022-03-28T17:30:29Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。