論文の概要: Rapid and robust endoscopic content area estimation: A lean GPU-based
pipeline and curated benchmark dataset
- arxiv url: http://arxiv.org/abs/2210.14771v1
- Date: Wed, 26 Oct 2022 15:10:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 15:08:42.972311
- Title: Rapid and robust endoscopic content area estimation: A lean GPU-based
pipeline and curated benchmark dataset
- Title(参考訳): 高速かつ堅牢な内視鏡コンテンツ領域推定:リーンGPUベースのパイプラインとベンチマークデータセット
- Authors: Charlie Budd, Luis C. Garcia-Peraza-Herrera, Martin Huber, Sebastien
Ourselin, Tom Vercauteren
- Abstract要約: コンテンツ領域の推定は、内視鏡画像処理やコンピュータビジョンパイプラインにおいて一般的な課題である。
本稿では、エッジ検出と円の嵌合を組み合わせたリーンGPUベースの計算パイプラインの2つの変種を提案する。
そこで本研究では,手動による注釈付きおよび疑似ラベル付きコンテンツ領域の1次データセットを,外科的適応の範囲にわたって提示する。
- 参考スコア(独自算出の注目度): 3.1993890965689666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Endoscopic content area refers to the informative area enclosed by the dark,
non-informative, border regions present in most endoscopic footage. The
estimation of the content area is a common task in endoscopic image processing
and computer vision pipelines. Despite the apparent simplicity of the problem,
several factors make reliable real-time estimation surprisingly challenging.
The lack of rigorous investigation into the topic combined with the lack of a
common benchmark dataset for this task has been a long-lasting issue in the
field. In this paper, we propose two variants of a lean GPU-based computational
pipeline combining edge detection and circle fitting. The two variants differ
by relying on handcrafted features, and learned features respectively to
extract content area edge point candidates. We also present a first-of-its-kind
dataset of manually annotated and pseudo-labelled content areas across a range
of surgical indications. To encourage further developments, the curated
dataset, and an implementation of both algorithms, has been made public
(https://doi.org/10.7303/syn32148000,
https://github.com/charliebudd/torch-content-area). We compare our proposed
algorithm with a state-of-the-art U-Net-based approach and demonstrate
significant improvement in terms of both accuracy (Hausdorff distance: 6.3 px
versus 118.1 px) and computational time (Average runtime per frame: 0.13 ms
versus 11.2 ms).
- Abstract(参考訳): 内視鏡的コンテンツ領域は、ほとんどの内視鏡的映像に存在する暗黒、非形、境界領域で囲まれた情報的領域を指す。
コンテンツ領域の推定は内視鏡画像処理やコンピュータビジョンパイプラインにおいて一般的な課題である。
問題の明らかな単純さにもかかわらず、いくつかの要因は、信頼できるリアルタイム推定を驚くほど困難にしている。
トピックに関する厳密な調査の欠如と、このタスクのための共通のベンチマークデータセットの欠如は、この分野で長く続いている問題である。
本稿では,エッジ検出と円の嵌合を組み合わせた,リーンGPUベースの計算パイプラインの2つの変種を提案する。
2つの変種は手作りの特徴に依存して異なり、それぞれが学習した特徴はコンテンツ領域のエッジポイント候補を抽出する。
また,手動で注釈付きおよび疑似ラベル付きコンテンツ領域を,外科的適応の範囲で比較検討した。
さらなる発展を促すため、キュレートされたデータセットと両方のアルゴリズムの実装が公開された(https://doi.org/10.7303/syn32148000, https://github.com/charliebudd/torch-content-area)。
提案手法を最先端のu-netアプローチと比較し,精度(ハウスドルフ距離: 6.3 px 対 118.1 px)と計算時間(フレーム当たり平均ランタイム: 0.13 ms 対 11.2 ms)の両面で有意な改善を示した。
関連論文リスト
- Coupled Laplacian Eigenmaps for Locally-Aware 3D Rigid Point Cloud Matching [0.0]
局所構造を考慮したグラフラプラシアン固有写像に基づく新しい手法を提案する。
ラプラシアン固有写像の順序と符号のあいまいさに対処するために、結合ラプラシアンと呼ばれる新しい作用素を導入する。
これらの高次元空間間の類似性は、形状に一致するような局所的な意味のあるスコアを与えることを示す。
論文 参考訳(メタデータ) (2024-02-27T10:10:12Z) - SATR: Zero-Shot Semantic Segmentation of 3D Shapes [74.08209893396271]
大規模オフザシェルフ2次元画像認識モデルを用いて3次元形状のゼロショットセマンティックセマンティックセマンティックセグメンテーションの課題について検討する。
本研究では、SATRアルゴリズムを開発し、ShapeNetPartと提案したFAUSTベンチマークを用いて評価する。
SATRは最先端のパフォーマンスを達成し、ベースラインアルゴリズムを平均mIoUの1.3%と4%で上回っている。
論文 参考訳(メタデータ) (2023-04-11T00:43:16Z) - A Large Scale Homography Benchmark [52.55694707744518]
1DSfMデータセットから10万枚の画像から約1000個の平面が観測された3D, Pi3Dの平面の大規模データセットを示す。
また,Pi3Dを利用した大規模ホモグラフィ推定ベンチマークであるHEBを提案する。
論文 参考訳(メタデータ) (2023-02-20T14:18:09Z) - Are we ready for beyond-application high-volume data? The Reeds robot
perception benchmark dataset [3.781421673607643]
本稿ではロボット認識アルゴリズムの研究のためにReedsと呼ばれるデータセットを提案する。
このデータセットは、アプリケーション固有のソリューションをテストする環境を提供するのではなく、アルゴリズムに要求されるベンチマーク機会を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-16T23:21:42Z) - Fast and Scalable Optimal Transport for Brain Tractograms [4.610968512889579]
線形メモリフットプリント上での正規化最適輸送問題を解くための新しいマルチスケールアルゴリズムを提案する。
本手法は, ファイバー束やトラック密度マップとしてモデル化された脳幹図に対して有効性を示す。
論文 参考訳(メタデータ) (2021-07-05T13:28:41Z) - Semiring Primitives for Sparse Neighborhood Methods on the GPU [16.56995698312561]
スパース半環プリミティブは、幅広い臨界距離測度をサポートするのに十分な柔軟性を持つことができる。
このプリミティブは、多くの近隣情報検索と機械学習アルゴリズムがスパース入力を受け付けるための基礎的なコンポーネントである。
論文 参考訳(メタデータ) (2021-04-13T17:05:03Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - FarSee-Net: Real-Time Semantic Segmentation by Efficient Multi-scale
Context Aggregation and Feature Space Super-resolution [14.226301825772174]
Cascaded Factorized Atrous Space Pyramid Pooling (CF-ASPP) と呼ばれる新しい効率的なモジュールについて紹介する。
これは畳み込みニューラルネットワーク(CNN)のための軽量なカスケード構造であり、コンテキスト情報を効率的に活用する。
我々は1枚のNivida Titan X (Maxwell) GPUカードでCityscapesテストセットの84fpsで68.4% mIoUを達成した。
論文 参考訳(メタデータ) (2020-03-09T03:53:57Z) - ABCNet: Real-time Scene Text Spotting with Adaptive Bezier-Curve Network [108.07304516679103]
本稿では,シーンテキストの検出と認識のための適応ベジエ・サーブネットワーク(ABCNet)を提案する。
まず,パラメータ化ベジエ曲線を用いて任意の形状のテキストに適応的に適合する。
標準的なバウンディングボックス検出と比較して、ベジエ曲線検出は無視可能なオーバーヘッドを導入し、効率と精度の両方において本手法の優位性をもたらす。
論文 参考訳(メタデータ) (2020-02-24T12:27:31Z) - Saliency Enhancement using Gradient Domain Edges Merging [65.90255950853674]
本研究では,エッジとサリエンシマップをマージして,サリエンシマップの性能を向上させる手法を開発した。
これにより、DUT-OMRONデータセットの少なくとも3.4倍の平均的な改善により、エッジ(SEE)を使用したサリエンシ向上が提案された。
SEEアルゴリズムは前処理のためのSEE-Preと後処理のためのSEE-Postの2つの部分に分けられる。
論文 参考訳(メタデータ) (2020-02-11T14:04:56Z) - NWPU-Crowd: A Large-Scale Benchmark for Crowd Counting and Localization [101.13851473792334]
我々は,5,109枚の画像からなる大規模集束群集NWPU-Crowdを構築し,合計2,133,375個の点と箱を付加したアノテートヘッドを構築した。
他の実世界のデータセットと比較すると、様々な照明シーンを含み、最大密度範囲 (020,033) を持つ。
本稿では,データ特性について述べるとともに,主要なSOTA(State-of-the-art)手法の性能を評価し,新たなデータに生じる問題を分析する。
論文 参考訳(メタデータ) (2020-01-10T09:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。