論文の概要: Sliding Window FastEdit: A Framework for Lesion Annotation in Whole-body
PET Images
- arxiv url: http://arxiv.org/abs/2311.14482v1
- Date: Fri, 24 Nov 2023 13:45:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 14:59:14.522070
- Title: Sliding Window FastEdit: A Framework for Lesion Annotation in Whole-body
PET Images
- Title(参考訳): Sliding Window FastEdit:全体PET画像の病変アノテーションのためのフレームワーク
- Authors: Matthias Hadlich, Zdravko Marinov, Moon Kim, Enrico Nasca, Jens
Kleesiek, Rainer Stiefelhagen
- Abstract要約: 深層学習は、医療画像における病気の正確なセグメンテーションに革命をもたらした。
この要件は全身ポジトロン断層撮影(PET)の課題であり、身体全体に病変が散在している。
SW-FastEditは対話型セグメンテーションフレームワークで、voxelwiseアノテーションの代わりにほんの数クリックでラベル付けを高速化する。
我々のモデルは、AutoPETデータセット上の既存の非スライドウィンドウ対話モデルより優れており、以前は見えなかったHECKTORデータセットに一般化する。
- 参考スコア(独自算出の注目度): 24.7560446107659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has revolutionized the accurate segmentation of diseases in
medical imaging. However, achieving such results requires training with
numerous manual voxel annotations. This requirement presents a challenge for
whole-body Positron Emission Tomography (PET) imaging, where lesions are
scattered throughout the body. To tackle this problem, we introduce SW-FastEdit
- an interactive segmentation framework that accelerates the labeling by
utilizing only a few user clicks instead of voxelwise annotations. While prior
interactive models crop or resize PET volumes due to memory constraints, we use
the complete volume with our sliding window-based interactive scheme. Our model
outperforms existing non-sliding window interactive models on the AutoPET
dataset and generalizes to the previously unseen HECKTOR dataset. A user study
revealed that annotators achieve high-quality predictions with only 10 click
iterations and a low perceived NASA-TLX workload. Our framework is implemented
using MONAI Label and is available:
https://github.com/matt3o/AutoPET2-Submission/
- Abstract(参考訳): 深層学習は、医療画像における疾患の正確な区分に革命をもたらした。
しかし、このような結果を達成するには、多数の手動のvoxelアノテーションを使ったトレーニングが必要である。
この要件は全身ポジトロン断層撮影(PET)の課題であり、身体全体に病変が散在している。
この問題に対処するために,voxelwiseアノテーションではなく数ユーザクリックのみを利用してラベリングを高速化する対話型セグメンテーションフレームワークsw-fasteditを紹介する。
従来の対話型モデルでは,メモリ制約によるペット体積の削減やリサイズを行うが,スライディングウィンドウベースの対話型スキームでは全ボリュームを使用する。
我々のモデルは、AutoPETデータセット上の既存の非スライドウィンドウ対話モデルより優れており、以前は見えなかったHECKTORデータセットに一般化する。
ユーザ調査の結果、アノテーションは10クリックのイテレーションと低いnasa-tlxのワークロードで高品質な予測を達成していることがわかった。
私たちのフレームワークはMONAI Labelを使って実装されており、https://github.com/matt3o/AutoPET2-Submission/
関連論文リスト
- Real-Time Fitness Exercise Classification and Counting from Video Frames [0.0]
本稿では,Bidirectional Long Short-Term Memory (BiLSTM) ニューラルネットワークを用いた実時間運動分類手法を提案する。
このモデルは、視点、ユーザーの位置、身体の違いの変化に適応し、一般化を改善する。
手動のエクササイズ選択なしでリアルタイムなエクササイズ分類と繰り返しカウントを提供するWebアプリケーションに統合される。
論文 参考訳(メタデータ) (2024-11-18T13:06:29Z) - A Good Foundation is Worth Many Labels: Label-Efficient Panoptic Segmentation [22.440065488051047]
ロボット知覚に学習ベースのモデルを広く応用する上での課題は、注釈付きトレーニングデータの必要量を大幅に削減することである。
視覚基礎モデルにより舗装された基礎を生かし、セマンティックセグメンテーションとオブジェクト境界検出のために2つの軽量ネットワークヘッドを訓練する。
PASTELはアノテーションが少なくてもラベル効率の良いセグメンテーションの手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-29T12:23:29Z) - Spatio-Temporal Side Tuning Pre-trained Foundation Models for Video-based Pedestrian Attribute Recognition [58.79807861739438]
既存の歩行者認識アルゴリズム(PAR)は主に静的画像に基づいて開発されている。
本稿では,時間的情報を完全に活用できるビデオフレームを用いて,人間の属性を理解することを提案する。
論文 参考訳(メタデータ) (2024-04-27T14:43:32Z) - LiteNeXt: A Novel Lightweight ConvMixer-based Model with Self-embedding Representation Parallel for Medical Image Segmentation [2.0901574458380403]
医用画像分割のための軽量だが効率的な新しいモデル LiteNeXt を提案する。
LiteNeXtは、少量のパラメータ (0.71M) とギガ浮動小数点演算 (0.42) でスクラッチから訓練されている。
論文 参考訳(メタデータ) (2024-04-04T01:59:19Z) - Multimodal Interactive Lung Lesion Segmentation: A Framework for
Annotating PET/CT Images based on Physiological and Anatomical Cues [16.159693927845975]
深層学習は、医療画像における様々な病気の正確なセグメンテーションを可能にした。
しかしながら、これらのパフォーマンスは通常、大量の手動のボクセルアノテーションを必要とする。
PET/CTデータから解剖学と生理学の手がかりを組み合わせることで,これらの問題を緩和する多モード対話型セグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-24T10:50:45Z) - ClipCrop: Conditioned Cropping Driven by Vision-Language Model [90.95403416150724]
我々は、堅牢でユーザ意図的な収穫アルゴリズムを構築する基盤として、視覚言語モデルを活用している。
そこで本研究では,ユーザの意図を反映したテキストや画像クエリを用いて,トリミングを行う手法を開発した。
私たちのパイプライン設計では、小さなデータセットでテキスト条件の美学を学習することができます。
論文 参考訳(メタデータ) (2022-11-21T14:27:07Z) - Accurate Image Restoration with Attention Retractable Transformer [50.05204240159985]
画像復元のためのアテンション・リトラクタブル・トランス (ART) を提案する。
ARTはネットワーク内の密集モジュールと疎開モジュールの両方を提示する。
画像超解像、デノナイジング、JPEG圧縮アーティファクト削減タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-10-04T07:35:01Z) - Rethinking Surgical Captioning: End-to-End Window-Based MLP Transformer
Using Patches [20.020356453279685]
外科的キャプションは外科的指導予測と報告生成において重要な役割を担っている。
ほとんどのキャプションモデルは依然として、地域的特徴を抽出するために重い計算対象検出器や特徴抽出器に依存している。
パッチベースのシフトウインドウ手法を用いて,エンド・ツー・エンド検出器と特徴抽出自由キャプションモデルの設計を行う。
論文 参考訳(メタデータ) (2022-06-30T21:57:33Z) - Exploring Intra- and Inter-Video Relation for Surgical Semantic Scene
Segmentation [58.74791043631219]
セグメンテーション性能を高めるために,映像内および映像間関係を補完する新しいフレームワークSTswinCLを提案する。
本研究では,EndoVis18 ChallengeとCaDISデータセットを含む2つの公開手術ビデオベンチマークに対するアプローチを広く検証する。
実験により,従来の最先端手法を一貫して超越した提案手法の有望な性能を示す。
論文 参考訳(メタデータ) (2022-03-29T05:52:23Z) - VIOLET : End-to-End Video-Language Transformers with Masked Visual-token
Modeling [88.30109041658618]
ビデオ言語(VidL)モデリングにおける大きな課題は、画像/映像理解モデルから抽出された固定されたビデオ表現と、下流のVidLデータとの切り離しにある。
我々は、ビデオ入力の時間的ダイナミクスを明示的にモデル化するビデオトランスを採用した、完全なエンドツーエンドVIdeO-LanguagE変換器であるVIOLETを提案する。
論文 参考訳(メタデータ) (2021-11-24T18:31:20Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。