論文の概要: Semantic Parsing of Colonoscopy Videos with Multi-Label Temporal
Networks
- arxiv url: http://arxiv.org/abs/2306.06960v2
- Date: Tue, 22 Aug 2023 11:31:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 20:50:16.856988
- Title: Semantic Parsing of Colonoscopy Videos with Multi-Label Temporal
Networks
- Title(参考訳): マルチラベル時間ネットワークを用いた大腸内視鏡ビデオの意味解析
- Authors: Ori Kelner, Or Weinstein, Ehud Rivlin, and Roman Goldenberg
- Abstract要約: 大腸内視鏡画像の自動解析法を提案する。
この手法は、教師なしおよび教師なしのレシエーションで訓練された、新しいDL多ラベル時間分割モデルを使用する。
そこで本研究では,300本以上の注記式大腸内視鏡検査装置を用いて,各部位の相対的重要性について検討した。
- 参考スコア(独自算出の注目度): 2.788533099191487
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Following the successful debut of polyp detection and characterization, more
advanced automation tools are being developed for colonoscopy. The new
automation tasks, such as quality metrics or report generation, require
understanding of the procedure flow that includes activities, events,
anatomical landmarks, etc. In this work we present a method for automatic
semantic parsing of colonoscopy videos. The method uses a novel DL multi-label
temporal segmentation model trained in supervised and unsupervised regimes. We
evaluate the accuracy of the method on a test set of over 300 annotated
colonoscopy videos, and use ablation to explore the relative importance of
various method's components.
- Abstract(参考訳): ポリープ検出とキャラクタリゼーションが成功した後、大腸内視鏡のためにより高度な自動化ツールが開発されている。
品質指標やレポート生成といった新しい自動化タスクでは、アクティビティやイベント、解剖学的ランドマークなどを含むプロシージャフローの理解が必要になります。
本稿では,大腸内視鏡ビデオの自動意味解析手法を提案する。
本手法は、教師なしおよび教師なし体制下で訓練された新しいDL多ラベル時間分割モデルを用いる。
今回,300本以上のアノテーテッド大腸内視鏡映像の検査セットにおける方法の精度を評価し,アブレーションを用いて各部位の相対的重要性について検討した。
関連論文リスト
- Frontiers in Intelligent Colonoscopy [96.57251132744446]
本研究は, インテリジェント大腸内視鏡技術のフロンティアと, マルチモーダル医療への応用の可能性について検討する。
大腸内視鏡的シーン知覚のための4つのタスクを通して,現在のデータ中心およびモデル中心のランドスケープを評価した。
今後のマルチモーダル時代を受け入れるために,大規模マルチモーダル・インストラクション・チューニング・データセットColoninST,大腸内視鏡で設計されたマルチモーダル言語モデルColonGPT,マルチモーダル・ベンチマークの3つの基本イニシアティブを構築した。
論文 参考訳(メタデータ) (2024-10-22T17:57:12Z) - SSTFB: Leveraging self-supervised pretext learning and temporal self-attention with feature branching for real-time video polyp segmentation [4.027361638728112]
本稿では,自己教師型学習を補助課題として行うビデオポリープセグメンテーション手法と,表現学習を改善するための空間的時間的自己認識機構を提案する。
実験により, 現状技術(SOTA)法の改良が示された。
本研究は,Diceの類似度係数と交叉結合度の両方において,ネットワークの精度が3%以上,10%近く向上することが確認された。
論文 参考訳(メタデータ) (2024-06-14T17:33:11Z) - Weakly-Supervised Learning via Multi-Lateral Decoder Branching for Guidewire Segmentation in Robot-Assisted Cardiovascular Catheterization [4.894147633944561]
心臓血管造影検査におけるツールセグメンテーションのための多面的擬似ラベリングを用いた弱教師付き学習法を提案する。
我々は,ロボット心カテーテル手術中に得られた弱注釈データを用いて,エンドツーエンドのモデルを訓練した。
従来の3種類の心血管造影法と比較して,3種類の心血管造影データに対して高いセグメンテーション性能を示した。
論文 参考訳(メタデータ) (2024-04-11T09:23:44Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Self-Supervised Polyp Re-Identification in Colonoscopy [1.9678816712224196]
視覚的外観による再同定に基づく頑健な長期ポリープ追跡手法を提案する。
我々のソリューションは、ビデオ入力の時間的特性を活用するために特別に設計されたアテンションベースの自己教師型MLモデルを使用する。
論文 参考訳(メタデータ) (2023-06-14T15:53:54Z) - Colonoscopy Landmark Detection using Vision Transformers [0.0]
手順中に撮影された120のビデオと2416のスナップショットのデータセットを収集しました。
我々は,視覚変換器を用いたランドマーク検出アルゴリズムを開発した。
テストデータセットのスナップショットに視覚変換器のバックボーンで82%の精度を報告した。
論文 参考訳(メタデータ) (2022-09-22T20:39:07Z) - FineDiving: A Fine-grained Dataset for Procedure-aware Action Quality
Assessment [93.09267863425492]
競争力のあるスポーツビデオにおける行動の高レベル意味論と内部時間構造の両方を理解することが、予測を正確かつ解釈可能なものにする鍵である、と我々は主張する。
本研究では,多様なダイビングイベントに対して,アクションプロシージャに関する詳細なアノテーションを付加した,ファインディビングと呼ばれる詳細なデータセットを構築した。
論文 参考訳(メタデータ) (2022-04-07T17:59:32Z) - Learning To Recognize Procedural Activities with Distant Supervision [96.58436002052466]
最大数分間の長いビデオから、きめ細かな多段階のアクティビティを分類する問題を考察する。
提案手法は,ビデオから自動書き起こされた音声の雑音に合う言語モデルを用いて,知識ベースで記述をステップする。
論文 参考訳(メタデータ) (2022-01-26T15:06:28Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z) - A Benchmark for Structured Procedural Knowledge Extraction from Cooking
Videos [126.66212285239624]
本稿では,調理ビデオから抽出した構造化手続き的知識のベンチマークを提案する。
手動で注釈付けしたオープン語彙リソースには、356の指導的調理ビデオと15,523のビデオクリップ/文レベルのアノテーションが含まれています。
論文 参考訳(メタデータ) (2020-05-02T05:15:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。