論文の概要: Stereo Correspondence and Reconstruction of Endoscopic Data Challenge
- arxiv url: http://arxiv.org/abs/2101.01133v4
- Date: Thu, 28 Jan 2021 20:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 22:55:50.692510
- Title: Stereo Correspondence and Reconstruction of Endoscopic Data Challenge
- Title(参考訳): 内視鏡データチャレンジのステレオ対応と再構成
- Authors: Max Allan and Jonathan Mcleod and Congcong Wang and Jean Claude
Rosenthal and Zhenglei Hu and Niklas Gard and Peter Eisert and Ke Xue Fu and
Trevor Zeffiro and Wenyao Xia and Zhanshi Zhu and Huoling Luo and Fucang Jia
and Xiran Zhang and Xiaohong Li and Lalith Sharan and Tom Kurmann and
Sebastian Schmid and Raphael Sznitman and Dimitris Psychogyios and Mahdi
Azizian and Danail Stoyanov and Lena Maier-Hein and Stefanie Speidel
- Abstract要約: 中国深センのMICCAI 2019において, 内視鏡的データのステレオ対応と再構築を行った。
作業は、ブタのケーダバーで捉えた7つのトレーニングデータセットと2つの構造化された光データを用いて、密集深度推定を行うことであった。
- 参考スコア(独自算出の注目度): 11.553103729903238
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The stereo correspondence and reconstruction of endoscopic data sub-challenge
was organized during the Endovis challenge at MICCAI 2019 in Shenzhen, China.
The task was to perform dense depth estimation using 7 training datasets and 2
test sets of structured light data captured using porcine cadavers. These were
provided by a team at Intuitive Surgical. 10 teams participated in the
challenge day. This paper contains 3 additional methods which were submitted
after the challenge finished as well as a supplemental section from these teams
on issues they found with the dataset.
- Abstract(参考訳): 中国深センで開かれたMICCAI 2019において, 内視鏡的サブチャレンジのステレオ対応と再構築を行った。
作業は、ブタのケーダバーで捉えた7つのトレーニングデータセットと2つの構造化光データのテストセットを用いて、深度推定を行うことであった。
これらはIntuitive surgeryのチームによって提供された。
チャレンジデイには10チームが参加した。
本論文は,課題終了後に提出された3つの追加手法と,これらのチームによるデータセットで見つかった問題に関する補足セクションを含む。
関連論文リスト
- The STOIC2021 COVID-19 AI challenge: applying reusable training
methodologies to private data [60.94672667514737]
本研究は、プライベートデータ上でのトレーニングソリューションを可能にするType Three (T3)チャレンジフォーマットを実装した。
T3では、チャレンジオーガナイザが参加者の提供するトレーニングデータに基づいてトレーニングを行う。
勝利解は、重篤なCOVID-19と非重症なCOVID-19(0.815)の鑑別のために、受信機動作特性曲線の下にある領域を得た。
論文 参考訳(メタデータ) (2023-06-18T05:48:28Z) - SMRVIS: Point cloud extraction from 3-D ultrasound for non-destructive
testing [0.0]
本報告では,5つのラベル付き超音波ボリュームと84のラベルなしボリュームのトレーニングデータセットを用いて,実験結果について報告する。
チャレンジのオーガナイザによる外部評価に基づいて、このフレームワークはチャレンジのhrefhttps://www.cvpr2023-dl-ultrasound.com/Leaderboardで初登場した。
論文 参考訳(メタデータ) (2023-06-07T14:53:02Z) - The Second Monocular Depth Estimation Challenge [93.1678025923996]
MDEC (Monocular Depth Estimation Challenge) の第2版は、いかなる種類の監視方法にも開放された。
この課題はSynS-Patchesデータセットをベースとしており、高品質な高密度地下構造を持つ多様な環境を特徴としている。
上位の監督官は相対的なFスコアを27.62%改善し、上位の監督官は16.61%改善した。
論文 参考訳(メタデータ) (2023-04-14T11:10:07Z) - The Monocular Depth Estimation Challenge [74.0535474077928]
本稿では,WACV2103で組織された最初の単分子深度推定チャレンジ(MDEC)の結果を要約する。
この課題は、SynS-Patchesデータセット上での自己教師付き単眼深度推定の進捗を評価した。
論文 参考訳(メタデータ) (2022-11-22T11:04:15Z) - 3D High-Fidelity Mask Face Presentation Attack Detection Challenge [79.2407530090659]
大規模なHigh-Fidelity Maskデータセット、すなわちCASIA-SURF HiFiMaskが収集された。
我々は,3次元マスクによる攻撃検出の研究を促進するために,3次元高忠実マスク顔提示検出チャレンジを組織した。
論文 参考訳(メタデータ) (2021-08-16T08:40:12Z) - The Detection of Thoracic Abnormalities ChestX-Det10 Challenge Results [47.43162940428029]
胸部異常の発見はDeepwise AI Labによって行われている。
本稿では,第2ラウンドに到達した6チームの結果を紹介する。
この課題は、Deepwise AI Labが提案したChestX-Det10日付セットを採用する。
論文 参考訳(メタデータ) (2020-10-19T07:57:27Z) - LID 2020: The Learning from Imperfect Data Challenge Results [242.86700551532272]
Imperfect Dataワークショップからの学習は、新しいアプローチの開発に刺激を与え、促進することを目的としている。
我々は、弱教師付き学習環境における最先端のアプローチを見つけるために、3つの課題を編成する。
この技術的レポートは、課題のハイライトを要約している。
論文 参考訳(メタデータ) (2020-10-17T13:06:12Z) - Advancing machine learning for MR image reconstruction with an open
competition: Overview of the 2019 fastMRI challenge [17.37669379313434]
MR画像再構成のための機械学習分野の研究をオープンチャレンジで進める。
対象者は1,594回の膝臨床検査から得られた生のk-spaceデータである。
この課題の目標は、これらのデータからイメージを再構築することであった。
論文 参考訳(メタデータ) (2020-01-06T23:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。