論文の概要: Syn-Mediverse: A Multimodal Synthetic Dataset for Intelligent Scene
Understanding of Healthcare Facilities
- arxiv url: http://arxiv.org/abs/2308.03193v1
- Date: Sun, 6 Aug 2023 19:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 15:59:48.235092
- Title: Syn-Mediverse: A Multimodal Synthetic Dataset for Intelligent Scene
Understanding of Healthcare Facilities
- Title(参考訳): Syn-Mediverse:医療施設の知的情景理解のためのマルチモーダル合成データセット
- Authors: Rohit Mohan, Jos\'e Arce, Sassan Mokhtar, Daniele Cattaneo and Abhinav
Valada
- Abstract要約: 多様な医療施設を対象とした,初の超現実的マルチモーダル合成データセットであるSyn-Mediverseを提案する。
業界標準の光学追跡カメラからのnum48000以上の画像を含み、5つの異なるシーン理解タスクに1.5万以上のアノテーションを提供する。
タスクごとの幅広い最先端ベースラインのパフォーマンスを評価することで、データセットの複雑さを実証する。
- 参考スコア(独自算出の注目度): 10.251995349993692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safety and efficiency are paramount in healthcare facilities where the lives
of patients are at stake. Despite the adoption of robots to assist medical
staff in challenging tasks such as complex surgeries, human expertise is still
indispensable. The next generation of autonomous healthcare robots hinges on
their capacity to perceive and understand their complex and frenetic
environments. While deep learning models are increasingly used for this
purpose, they require extensive annotated training data which is impractical to
obtain in real-world healthcare settings. To bridge this gap, we present
Syn-Mediverse, the first hyper-realistic multimodal synthetic dataset of
diverse healthcare facilities. Syn-Mediverse contains over \num{48000} images
from a simulated industry-standard optical tracking camera and provides more
than 1.5M annotations spanning five different scene understanding tasks
including depth estimation, object detection, semantic segmentation, instance
segmentation, and panoptic segmentation. We demonstrate the complexity of our
dataset by evaluating the performance on a broad range of state-of-the-art
baselines for each task. To further advance research on scene understanding of
healthcare facilities, along with the public dataset we provide an online
evaluation benchmark available at \url{http://syn-mediverse.cs.uni-freiburg.de}
- Abstract(参考訳): 患者の命がかかっている医療施設では、安全と効率が最重要である。
複雑な手術などの困難な作業で医療スタッフを支援するロボットが採用されているにもかかわらず、人間の専門知識は依然として不可欠である。
次世代の自律医療ロボットは、彼らの複雑でフレネティックな環境を理解し理解する能力にかかっている。
ディープラーニングモデルは、この目的のためにますます使われているが、現実の医療環境では入手できない、広範な注釈付きトレーニングデータが必要である。
このギャップを埋めるために、多様な医療施設の超現実的なマルチモーダル合成データセットであるSyn-Mediverseを提案する。
Syn-Mediverseは、業界標準の光学追跡カメラからのnum{48000}画像を含み、深度推定、オブジェクト検出、セマンティックセグメンテーション、インスタンスセグメンテーション、パノプティックセグメンテーションを含む5つの異なるシーン理解タスクに1.5Mアノテーションを提供する。
各タスクのさまざまな最先端ベースラインのパフォーマンスを評価することで、データセットの複雑さを実証します。
医療施設の現場理解に関する研究をさらに進めるために、公開データセットとともに、オンライン評価ベンチマークを \url{http://syn-mediverse.cs.uni-freiburg.de} で提供する。
関連論文リスト
- Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - Contrast Everything: A Hierarchical Contrastive Framework for Medical
Time-Series [12.469204999759965]
COMETは、医療時系列のすべての固有のレベルにおいてデータのコンピテンシーを活用する革新的な階層的フレームワークである。
我々の綿密に設計されたモデルは、観察、サンプル、トライアル、患者レベルという4つの潜在的なレベルからデータ一貫性を体系的にキャプチャする。
心筋梗塞の心電図信号とアルツハイマー病とパーキンソン病の脳波信号を含む3つの多様なデータセットを用いて,COMETと6つのベースラインを比較した。
論文 参考訳(メタデータ) (2023-10-21T13:59:31Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - DeepMediX: A Deep Learning-Driven Resource-Efficient Medical Diagnosis
Across the Spectrum [15.382184404673389]
この作業では,この課題に大きく対処する,画期的な,リソース効率の高いモデルである textttDeepMediX が紹介されている。
MobileNetV2アーキテクチャ上に構築されたDeepMediXは、脳MRIスキャンと皮膚がん画像の分類に長けている。
DeepMediXの設計にはフェデレートラーニングの概念も含まれている。
論文 参考訳(メタデータ) (2023-07-01T12:30:58Z) - SYNTA: A novel approach for deep learning-based image analysis in muscle
histopathology using photo-realistic synthetic data [2.1616289178832666]
我々は,合成,フォトリアリスティック,高度に複雑なバイオメディカルイメージをトレーニングデータとして生成するための新しいアプローチとして,Synta(synthetic data)を紹介した。
手動のアノテーションを必要とせずに、以前に見つからなかった実世界のデータに対して、堅牢で専門家レベルのセグメンテーションタスクを実行することが可能であることを実証した。
論文 参考訳(メタデータ) (2022-07-29T12:50:32Z) - 4D-OR: Semantic Scene Graphs for OR Domain Modeling [72.1320671045942]
本稿では,手術シーンを記述・要約するために意味シーングラフ(SSG)を提案する。
シーングラフのノードは、医療スタッフ、患者、医療機器など、部屋内のさまざまなアクターやオブジェクトを表す。
人工膝置換手術を10回行った4D-ORデータセットを作成した。
論文 参考訳(メタデータ) (2022-03-22T17:59:45Z) - Cross-Modality Neuroimage Synthesis: A Survey [71.27193056354741]
マルチモダリティイメージングは、疾患の診断を改善し、解剖学的特性を持つ組織における相違を明らかにする。
完全な整列とペアの多モードニューロイメージングデータの存在は、脳研究においてその効果を証明している。
もう一つの解決策は、教師なしまたは弱教師なしの学習方法を探究し、欠落した神経画像データを合成することである。
論文 参考訳(メタデータ) (2022-02-14T19:29:08Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - m2caiSeg: Semantic Segmentation of Laparoscopic Images using
Convolutional Neural Networks [4.926395463398194]
深層学習に基づくセマンティック・セマンティック・セマンティック・セマンティック・セマンティック・アルゴリズムを提案する。
実世界の外科手術の内視鏡的映像フィードから作成した注釈付きデータセットm2caiSegを提示する。
論文 参考訳(メタデータ) (2020-08-23T23:30:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。