論文の概要: Extraction of Key-frames of Endoscopic Videos by using Depth Information
- arxiv url: http://arxiv.org/abs/2107.00005v1
- Date: Wed, 30 Jun 2021 11:48:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-03 05:18:15.589987
- Title: Extraction of Key-frames of Endoscopic Videos by using Depth Information
- Title(参考訳): 深度情報を用いた内視鏡映像のキーフレーム抽出
- Authors: Pradipta Sasmal, Avinash Paul, M.K. Bhuyan, and Yuji Iwahori
- Abstract要約: 深層学習に基づく単眼深度推定法 (MDE) は, 内視鏡映像の最も情報性の高いフレーム (キーフレーム) を選択するために提案される。
提案手法の1つの重要な応用は、抽出したキーフレームの助けを借りてポリプの3次元再構成を行うことである。
- 参考スコア(独自算出の注目度): 0.5249805590164902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A deep learning-based monocular depth estimation (MDE) technique is proposed
for selection of most informative frames (key frames) of an endoscopic video.
In most of the cases, ground truth depth maps of polyps are not readily
available and that is why the transfer learning approach is adopted in our
method. An endoscopic modalities generally capture thousands of frames. In this
scenario, it is quite important to discard low-quality and clinically
irrelevant frames of an endoscopic video while the most informative frames
should be retained for clinical diagnosis. In this view, a key-frame selection
strategy is proposed by utilizing the depth information of polyps. In our
method, image moment, edge magnitude, and key-points are considered for
adaptively selecting the key frames. One important application of our proposed
method could be the 3D reconstruction of polyps with the help of extracted key
frames. Also, polyps are localized with the help of extracted depth maps.
- Abstract(参考訳): 深層学習に基づく単眼深度推定法 (MDE) は, 内視鏡映像の最も情報性の高いフレーム (キーフレーム) を選択するために提案される。
多くの場合,ポリプの基底真理深度マップは容易には利用できないため,本手法では移動学習アプローチが採用されている。
内視鏡的形態は一般に数千のフレームをキャプチャする。
このシナリオでは、内視鏡的ビデオの低品質で臨床的に無関係なフレームを破棄することが極めて重要であるが、最も有益なフレームは臨床診断のために保持すべきである。
この観点から,ポリプの深さ情報を利用してキーフレーム選択戦略を提案する。
提案手法では,キーフレームを適応的に選択するために,画像モーメント,エッジサイズ,キーポイントが考慮される。
提案手法の1つの重要な応用は,抽出されたキーフレームを用いてポリプの3次元再構成である。
また、ポリプは抽出した深度マップの助けを借りて局在する。
関連論文リスト
- PolypDB: A Curated Multi-Center Dataset for Development of AI Algorithms in Colonoscopy [31.54817948734052]
3934の静止ポリプ画像を含む大規模公開データセットであるPolypDBを紹介する。
このデータセットは10人の消化器科医によって開発され、検証されている。
8つの一般的なセグメンテーション法と6つの標準ベンチマークポリープ検出法を用いて、各モダリティのベンチマークを提供する。
論文 参考訳(メタデータ) (2024-08-19T05:36:01Z) - SSTFB: Leveraging self-supervised pretext learning and temporal self-attention with feature branching for real-time video polyp segmentation [4.027361638728112]
本稿では,自己教師型学習を補助課題として行うビデオポリープセグメンテーション手法と,表現学習を改善するための空間的時間的自己認識機構を提案する。
実験により, 現状技術(SOTA)法の改良が示された。
本研究は,Diceの類似度係数と交叉結合度の両方において,ネットワークの精度が3%以上,10%近く向上することが確認された。
論文 参考訳(メタデータ) (2024-06-14T17:33:11Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - YONA: You Only Need One Adjacent Reference-frame for Accurate and Fast
Video Polyp Detection [80.68520401539979]
textbfYONA (textbfYou textbfOnly textbfNeed one textbfAdjacent Reference-frame)は、ビデオポリープ検出のための効率的なエンドツーエンドのトレーニングフレームワークである。
提案したYONAは,従来の最先端の競合他社よりも精度と速度の両面で優れています。
論文 参考訳(メタデータ) (2023-06-06T13:53:15Z) - PCRLv2: A Unified Visual Information Preservation Framework for
Self-supervised Pre-training in Medical Image Analysis [56.63327669853693]
本稿では,ピクセルレベルの情報を高レベルなセマンティクスに明示的にエンコードするための画素復元タスクを提案する。
また,画像理解を支援する強力なツールであるスケール情報の保存についても検討する。
提案されている統合SSLフレームワークは、さまざまなタスクで自己管理されたフレームワークを超越している。
論文 参考訳(メタデータ) (2023-01-02T17:47:27Z) - Morphology-Aware Interactive Keypoint Estimation [32.52024944963992]
医学的画像に基づく診断は、しばしば解剖学的キーポイントのマニュアルアノテーションを含む。
本稿では,ユーザインタラクションシステムを通じて解剖学的キーポイントを自動的に検出し,精査する,新しいディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-15T09:27:14Z) - Contrastive Transformer-based Multiple Instance Learning for Weakly
Supervised Polyp Frame Detection [30.51410140271929]
現在の大腸内視鏡ビデオからのポリープ検出法では、正常な(健康な)訓練画像のみを使用する。
我々は,ビデオレベルのラベル付き学習データを用いてフレームレベルのポリプを検出する弱教師付き異常検出タスクとして,ポリプ検出を定式化する。
論文 参考訳(メタデータ) (2022-03-23T01:30:48Z) - Colorectal Polyp Classification from White-light Colonoscopy Images via
Domain Alignment [57.419727894848485]
大腸内視鏡画像からの正確な診断を支援するためには,コンピュータ支援診断システムが必要である。
これまでのほとんどの研究では、Narrow-Band Imaging (NBI) や他の拡張画像を用いて、ポリプの分化モデルの開発を試みている。
正確な大腸ポリープ分類のための教師/学生アーキテクチャに基づく新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-05T09:31:46Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Extremely Dense Point Correspondences using a Learned Feature Descriptor [24.59943074297299]
内視鏡画像からの高品質な3D再構成は、手術ナビゲーションを含む多くの臨床応用において重要な役割を担っている。
一般的なマルチビュー3D再構成には多くの方法が存在するが、これらの手法は内視鏡的映像に満足な性能を発揮できないことが多い。
本稿では,高密度記述子学習のための効果的な自己指導型学習手法と新規損失設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T00:44:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。