論文の概要: GIRAFE: Glottal Imaging Dataset for Advanced Segmentation, Analysis, and Facilitative Playbacks Evaluation
- arxiv url: http://arxiv.org/abs/2412.15054v1
- Date: Thu, 19 Dec 2024 17:02:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:32:37.878312
- Title: GIRAFE: Glottal Imaging Dataset for Advanced Segmentation, Analysis, and Facilitative Playbacks Evaluation
- Title(参考訳): GIRAFE: 高度なセグメンテーション, 分析, ファシリテーティブなプレイバック評価のためのグロータルイメージングデータセット
- Authors: G. Andrade-Miranda, K. Chatzipapas, J. D. Arias-Londoño, J. I. Godino-Llorente,
- Abstract要約: GIRAFEはセマンティックセグメンテーションの高度な技術開発を容易にするために設計されたデータリポジトリである。
このレポジトリには、50人の患者からなるコホートからの65の高速ビデオ内視鏡記録が含まれている。
このデータセットは、健康的なコントロールから15の録音、診断された音声障害の26の録音、未知の健康状態の24の録音を含む。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The advances in the development of Facilitative Playbacks extracted from High-Speed videoendoscopic sequences of the vocal folds are hindered by a notable lack of publicly available datasets annotated with the semantic segmentations corresponding to the area of the glottal gap. This fact also limits the reproducibility and further exploration of existing research in this field. To address this gap, GIRAFE is a data repository designed to facilitate the development of advanced techniques for the semantic segmentation, analysis, and fast evaluation of High-Speed videoendoscopic sequences of the vocal folds. The repository includes 65 high-speed videoendoscopic recordings from a cohort of 50 patients (30 female, 20 male). The dataset comprises 15 recordings from healthy controls, 26 from patients with diagnosed voice disorders, and 24 with an unknown health condition. All of them were manually annotated by an expert, including the masks corresponding to the semantic segmentation of the glottal gap. The repository is also complemented with the automatic segmentation of the glottal area using different state-of-the-art approaches. This data set has already supported several studies, which demonstrates its usefulness for the development of new glottal gap segmentation algorithms from High-Speed-Videoendoscopic sequences to improve or create new Facilitative Playbacks. Despite these advances and others in the field, the broader challenge of performing an accurate and completely automatic semantic segmentation method of the glottal area remains open.
- Abstract(参考訳): 声帯の高速ビデオ内視鏡的シーケンスから抽出したファシリテーティブ・プレイバックの発達は,声門間隙の面積に応じた意味的セグメンテーションを付加した公開データセットの欠如によって妨げられる。
この事実は、この分野での既存の研究の再現性とさらなる探索を制限している。
このギャップに対処するため、GIRAFEは、声帯の高速ビデオ内視鏡シーケンスのセグメンテーション、解析、高速評価のための高度な技術開発を容易にするために設計されたデータレポジトリである。
このレポジトリには、50人の患者(30人の女性、20人の男性)からなるコホートからの65の高速ビデオ内視鏡記録が含まれている。
このデータセットは、健康的なコントロールから15の録音、診断された音声障害の26の録音、未知の健康状態の24の録音を含む。
それら全ては専門家によって手動で注釈付けされ、その中にはスロットルギャップのセマンティックセグメンテーションに対応するマスクが含まれていた。
このレポジトリは、異なる最先端アプローチを用いて、スロットル領域の自動セグメンテーションを補完する。
このデータセットはすでにいくつかの研究を支持しており、新しいファシリテーティブ・プレイバックを改良または作成するために、高速・内視鏡的シーケンスから新しいスロットタルギャップ分割アルゴリズムを開発するのに有用であることを示している。
この分野におけるこれらの進歩等にもかかわらず、正確な完全自動意味的セグメンテーションを行うというより広い課題は未解決のままである。
関連論文リスト
- TEMSET-24K: Densely Annotated Dataset for Indexing Multipart Endoscopic Videos using Surgical Timeline Segmentation [2.9776992449863613]
現在のビデオ分析は、手作業によるインデックス作成に依存している。
TEMSET-24Kは,経肛門的内視鏡的マイクロサマリー(TEMS)ビデオマイクロクリップからなるオープンソースデータセットである。
各クリップは、新しい階層的ラベリング分類を用いて、臨床専門家によって慎重に注釈付けされる。
論文 参考訳(メタデータ) (2025-02-10T17:37:34Z) - Multi-Class Segmentation of Aortic Branches and Zones in Computed Tomography Angiography: The AortaSeg24 Challenge [55.252714550918824]
AortaSeg24 MICCAI Challengeは、23の臨床的に関連する大動脈枝と領域に注釈付き100 CTA巻の最初のデータセットを導入した。
本稿では,トップパフォーマンスアルゴリズムの課題設計,データセットの詳細,評価指標,詳細な分析について述べる。
論文 参考訳(メタデータ) (2025-02-07T21:09:05Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - Deep Spectral Methods for Unsupervised Ultrasound Image Interpretation [53.37499744840018]
本稿では, 超音波を応用した非教師型深層学習手法を提案する。
我々は、スペクトルグラフ理論と深層学習法を組み合わせた教師なしディープスペクトル法から重要な概念を統合する。
スペクトルクラスタリングの自己教師型トランスフォーマー機能を利用して、超音波特有のメトリクスと形状と位置の先行値に基づいて意味のあるセグメントを生成し、データセット間のセマンティック一貫性を確保する。
論文 参考訳(メタデータ) (2024-08-04T14:30:14Z) - Vivim: a Video Vision Mamba for Medical Video Segmentation [52.11785024350253]
本稿では、医用ビデオセグメンテーションタスクのためのビデオビジョンマンバベースのフレームワークVivimを提案する。
我々のビビムは、長期表現を様々なスケールのシーケンスに効果的に圧縮することができる。
超音波検査では甲状腺分節,乳房病変分節,大腸内視鏡検査ではポリープ分節が有効で有効であった。
論文 参考訳(メタデータ) (2024-01-25T13:27:03Z) - Ultrasound Image Segmentation of Thyroid Nodule via Latent Semantic
Feature Co-Registration [12.211161441766532]
本稿では,甲状腺結節分節の枠組みであるASTNを提案する。
アトラスおよび対象画像から潜在意味情報を抽出することにより、解剖学的構造の整合性を確保することができる。
また,共同登録の難しさを軽減するために,アトラス選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-13T16:18:48Z) - Shifting More Attention to Breast Lesion Segmentation in Ultrasound
Videos [43.454994341021276]
572本の動画と34,300本の注釈付きフレームからなるUSビデオ乳房病変セグメンテーションデータセットを精査した。
周波数領域から時間的特徴を学習する新しい周波数・局所化特徴集約ネットワーク(FLA-Net)を提案する。
我々のアノテーション付きデータセットと2つの公開ビデオポリプセグメンテーションデータセットに関する実験は、提案したFLA-Netが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-10-03T07:50:32Z) - A spatio-temporal network for video semantic segmentation in surgical
videos [11.548181453080087]
ビデオにおける時間的関係をモデル化するための新しいアーキテクチャを提案する。
提案モデルは,セマンティックビデオセグメンテーションを可能にするデコーダを含む。
提案するデコーダは,任意のセグメンテーションエンコーダ上で時間的整合性を改善するために使用することができる。
論文 参考訳(メタデータ) (2023-06-19T16:36:48Z) - Exploiting Segment-level Semantics for Online Phase Recognition from
Surgical Videos [13.858624044986811]
ビデオから外科的位相認識のためのセグメント適応階層整合性ネットワーク(SAHC)を提案する。
フレームとその対応するセグメントの予測を一貫性損失によって正規化することにより、ネットワークはセマンティック一貫性のあるセグメントを生成することができる。
実験の結果,本手法は従来の最先端技術よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-22T08:18:05Z) - Learning Multi-Granular Hypergraphs for Video-Based Person
Re-Identification [110.52328716130022]
ビデオベースの人物識別(re-ID)はコンピュータビジョンにおいて重要な研究課題である。
MGH(Multi-Granular Hypergraph)という新しいグラフベースのフレームワークを提案する。
MARSの90.0%のトップ-1精度はMGHを用いて達成され、最先端のスキームよりも優れていた。
論文 参考訳(メタデータ) (2021-04-30T11:20:02Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。