論文の概要: Surgical Tattoos in Infrared: A Dataset for Quantifying Tissue Tracking
and Mapping
- arxiv url: http://arxiv.org/abs/2309.16782v2
- Date: Thu, 29 Feb 2024 18:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-02 04:03:30.501159
- Title: Surgical Tattoos in Infrared: A Dataset for Quantifying Tissue Tracking
and Mapping
- Title(参考訳): 赤外線による外科的刺青 : 組織追跡とマッピングの定量化のためのデータセット
- Authors: Adam Schmidt, Omid Mohareri, Simon DiMaio, Septimiu E. Salcudean
- Abstract要約: Infraredデータセットの手術用タトゥーは、in-vivoとex-vivoの両方のシーンで数百のステレオビデオクリップで構成されている。
3000以上のラベル付きポイントを持つSTIRは、トラッキングとマッピングの方法の定量化と、よりよい分析を可能にする。
- 参考スコア(独自算出の注目度): 7.282909831316735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantifying performance of methods for tracking and mapping tissue in
endoscopic environments is essential for enabling image guidance and automation
of medical interventions and surgery. Datasets developed so far either use
rigid environments, visible markers, or require annotators to label salient
points in videos after collection. These are respectively: not general, visible
to algorithms, or costly and error-prone. We introduce a novel labeling
methodology along with a dataset that uses said methodology, Surgical Tattoos
in Infrared (STIR). STIR has labels that are persistent but invisible to
visible spectrum algorithms. This is done by labelling tissue points with
IR-fluorescent dye, indocyanine green (ICG), and then collecting visible light
video clips. STIR comprises hundreds of stereo video clips in both in-vivo and
ex-vivo scenes with start and end points labelled in the IR spectrum. With over
3,000 labelled points, STIR will help to quantify and enable better analysis of
tracking and mapping methods. After introducing STIR, we analyze multiple
different frame-based tracking methods on STIR using both 3D and 2D endpoint
error and accuracy metrics. STIR is available at
https://dx.doi.org/10.21227/w8g4-g548
- Abstract(参考訳): 内視鏡下組織を追跡・マッピングする手法の性能の定量化は, 画像指導と医療介入・手術の自動化に不可欠である。
これまでに開発されたデータセットは、厳格な環境や目に見えるマーカーを使用するか、あるいはアノテータに収集後のビデオにサルエントポイントをラベル付ける必要がある。
これらはそれぞれ一般的なものではなく、アルゴリズムに可視である。
そこで本研究では, 赤外線手術用タトゥー(stir)を用いた新しいラベリング法について紹介する。
STIRには永続性があるが、可視光スペクトルアルゴリズムには見えないラベルがある。
これは、組織点をIR蛍光染料、インドシアニングリーン(ICG)でラベル付けし、可視光ビデオクリップを収集する。
STIRは、in-vivoとex-vivoの両方で数百のステレオビデオクリップで構成されており、スタートとエンドポイントはIRスペクトルにラベル付けされている。
3000以上のラベル付きポイントを持つSTIRは、トラッキングとマッピングの方法の定量化とより良い分析を可能にする。
STIRを導入した後、3次元および2次元の終端誤差と精度の指標を用いて、STIR上の複数のフレームベースのトラッキング手法を解析した。
STIRはhttps://dx.doi.org/10.21227/w8g4-g548で利用可能である。
関連論文リスト
- EchoTracker: Advancing Myocardial Point Tracking in Echocardiography [0.6263680699548959]
EchoTrackerは、超音波画像シーケンスを横切る組織表面のクエリポイントの追跡を容易にする、2倍の粗い粒度モデルである。
実験の結果、平均位置精度は67%、中央軌道誤差は2.86ピクセルである。
このことは、学習に基づく点追跡がパフォーマンスを向上し、臨床測定において高い診断と予後の値が得られることを示唆している。
論文 参考訳(メタデータ) (2024-05-14T13:24:51Z) - LABELMAKER: Automatic Semantic Label Generation from RGB-D Trajectories [59.14011485494713]
この研究は、完全に自動化された2D/3Dラベリングフレームワークを導入し、RGB-Dスキャンのラベルを同等(あるいはそれ以上)の精度で生成できる。
我々は、ScanNetデータセットのラベルを大幅に改善し、これまでラベル付けされていなかったARKitScenesデータセットを自動的にラベル付けすることで、LabelMakerパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-20T20:40:24Z) - MUSTANG: Multi-Stain Self-Attention Graph Multiple Instance Learning
Pipeline for Histopathology Whole Slide Images [1.127806343149511]
Whole Slide Images (WSIs)は、ギガピクセルサイズとアーティファクトの存在により、コンピュータビジョンの課題を提示している。
実世界の臨床データセットは、患者レベルにラベルがある異種WSIのセットとして提供され、アノテーションが不足している。
本稿では,エンドツーエンドのマルチスタンプ・セルフアテンション・グラフ(MUSTANG)マルチインスタンス学習パイプラインを提案する。
論文 参考訳(メタデータ) (2023-09-19T14:30:14Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Robust Landmark-based Stent Tracking in X-ray Fluoroscopy [10.917460255497227]
単一ステントトラッキングのためのエンドツーエンドのディープラーニングフレームワークを提案する。
U-Netベースのランドマーク検出、ResNetベースのステント提案、機能抽出の3つの階層モジュールで構成されている。
実験により,本手法は最先端のポイントベース追跡モデルと比較して,検出精度が有意に向上していることが示された。
論文 参考訳(メタデータ) (2022-07-20T14:20:03Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - LapSeg3D: Weakly Supervised Semantic Segmentation of Point Clouds
Representing Laparoscopic Scenes [1.7941882788670036]
手術シーンを表す点雲のvoxel-wiseアノテーションのための新しいアプローチであるLapSeg3Dを提案する。
トレーニングデータの手動アノテーションは非常に時間がかかり、胆嚢のアノテーションのための半自律クラスタリングベースのパイプラインを導入する。
異なるRGB-Dカメラシステムで記録された様々な胆嚢およびデータセットを正確に一般化するLapSeg3Dを示す。
論文 参考訳(メタデータ) (2022-07-15T11:57:14Z) - Comparison of Representation Learning Techniques for Tracking in time
resolved 3D Ultrasound [0.7734726150561088]
3D超音波(3DUS)は、放射線治療における標的追跡において、電離放射線を使わずにリアルタイムに容積画像を提供する能力により、より興味深いものとなる。
そのため、意味のある表現を学習する手法は、表現空間(r-空間)における異なる時間枠における解剖学的構造を認識するのに有用である。
本研究では,従来のオートエンコーダ,変分オートエンコーダ,スライスワッサースタインオートエンコーダを用いて,3DUSパッチを128次元のr空間に縮小する。
論文 参考訳(メタデータ) (2022-01-10T12:38:22Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - SOMA: Solving Optical Marker-Based MoCap Automatically [56.59083192247637]
我々はSOMAと呼ばれる新しいニューラルネットワークを訓練し、モカプポイントの雲をさまざまな数のポイントで取り、それらを大規模にラベル付けする。
Somaは、3Dボディの空間構造を学ぶために、自己注意要素を積み重ねたアーキテクチャを利用する。
4つのデータセットにまたがる8時間以上のアーカイブモキャップデータを自動的にラベル付けします。
論文 参考訳(メタデータ) (2021-10-09T02:27:27Z) - Supervision by Registration and Triangulation for Landmark Detection [70.13440728689231]
本稿では,マルチビュー映像を用いた教師なし手法である登録・三角測量(srt)による監視を行い,ランドマーク検出器の精度と精度を向上させる。
ラベルのないデータを活用することで、検出者は大量のラベルのないデータから自由に学べる。
論文 参考訳(メタデータ) (2021-01-25T02:48:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。