論文の概要: HOLa: HoloLens Object Labeling
- arxiv url: http://arxiv.org/abs/2412.04945v2
- Date: Tue, 31 Dec 2024 14:31:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-03 17:39:07.616074
- Title: HOLa: HoloLens Object Labeling
- Title(参考訳): HOLa:HoloLensオブジェクトラベル
- Authors: Michael Schwimmbeck, Serouj Khajarian, Konstantin Holzapfel, Johannes Schmidt, Stefanie Remmele,
- Abstract要約: 本稿では,SAM-Trackアルゴリズムに基づくHoloLens-Object-Labeling (HOLa) UnityとPythonアプリケーションを紹介する。
画像アノテーションにHOLaを使用することで、ラベル付け速度を500倍以上に向上させることができる。
開肝手術および臨床ファントム実験において, HOLaを画像の複雑さの程度によって評価した。
- 参考スコア(独自算出の注目度): 1.8874331450711404
- License:
- Abstract: In the context of medical Augmented Reality (AR) applications, object tracking is a key challenge and requires a significant amount of annotation masks. As segmentation foundation models like the Segment Anything Model (SAM) begin to emerge, zero-shot segmentation requires only minimal human participation obtaining high-quality object masks. We introduce a HoloLens-Object-Labeling (HOLa) Unity and Python application based on the SAM-Track algorithm that offers fully automatic single object annotation for HoloLens 2 while requiring minimal human participation. HOLa does not have to be adjusted to a specific image appearance and could thus alleviate AR research in any application field. We evaluate HOLa for different degrees of image complexity in open liver surgery and in medical phantom experiments. Using HOLa for image annotation can increase the labeling speed by more than 500 times while providing Dice scores between 0.875 and 0.982, which are comparable to human annotators. Our code is publicly available at: https://github.com/mschwimmbeck/HOLa
- Abstract(参考訳): 医療用拡張現実(AR)アプリケーションでは、オブジェクト追跡が重要な課題であり、大量のアノテーションマスクを必要とする。
Segment Anything Model (SAM)のようなセグメンテーション基盤モデルが登場し始めると、ゼロショットセグメンテーションは、高品質なオブジェクトマスクを得るためには、人間の最小限の参加しか必要としない。
我々はSAM-Trackアルゴリズムに基づくHoloLens-Object-Labeling (HOLa) UnityとPythonアプリケーションを紹介した。
HOLaは特定の画像の外観に調整する必要はなく、任意のアプリケーション分野におけるAR研究を緩和することができる。
開肝手術および臨床ファントム実験において, HOLaを画像の複雑さの程度によって評価した。
画像アノテーションにHOLaを使用することで、Diceスコアを0.875から0.982までのラベル付け速度を500倍以上に向上させることができる。
私たちのコードは、https://github.com/mschwimmbeck/HOLaで公開されています。
関連論文リスト
- SimSAM: Zero-shot Medical Image Segmentation via Simulated Interaction [8.525516300734024]
textbfSimulated Interaction for textbfSegment textbfAnything textbfModel (textsctextbfSimSAM) を導入する。
提案手法は,ゼロショットSAMと比較して,輪郭セグメンテーション精度が最大15.5%向上することがわかった。
論文 参考訳(メタデータ) (2024-06-02T08:13:12Z) - SqueezeSAM: User friendly mobile interactive segmentation [21.37175388518365]
Segment Anything Model (SAM) はインタラクティブセグメンテーションの分野における基盤となっている。
本研究の目的は,モバイル写真アプリケーションにSAMを応用することである。
SqueezeSAM モデルアーキテクチャは,従来の SAM の 62.5 倍の高速化と 31.6 倍の小型化を実現した。
論文 参考訳(メタデータ) (2023-12-11T16:04:22Z) - Zero-Shot Object Counting with Language-Vision Models [50.1159882903028]
クラスに依存しないオブジェクトカウントは、テスト時に任意のクラスのオブジェクトインスタンスをカウントすることを目的としている。
現在の手法では、新しいカテゴリではしばしば利用できない入力として、人間に注釈をつけた模範を必要とする。
テスト期間中にクラス名のみを利用できる新しい設定であるゼロショットオブジェクトカウント(ZSC)を提案する。
論文 参考訳(メタデータ) (2023-09-22T14:48:42Z) - Diffuse, Attend, and Segment: Unsupervised Zero-Shot Segmentation using Stable Diffusion [24.02235805999193]
アノテーションを使わずに任意のものをゼロショットでセグメント化できるモデルを提案する。
注意マップ間のKLのばらつきを計測し,それらを有効なセグメンテーションマスクにマージする,シンプルで効果的な反復的マージ手法を提案する。
COCO-Stuff-27では,従来の教師なしゼロショットSOTA法を26%,IoU平均17%で上回っている。
論文 参考訳(メタデータ) (2023-08-23T23:44:44Z) - DiffuMask: Synthesizing Images with Pixel-level Annotations for Semantic
Segmentation Using Diffusion Models [68.21154597227165]
本研究では,オフザシェルフ安定拡散モデルにより生成された合成画像の正確なセマンティックマスクを自動で取得できることを示す。
我々のアプローチはDiffuMaskと呼ばれ、テキストと画像間の相互注意マップの可能性を利用しています。
論文 参考訳(メタデータ) (2023-03-21T08:43:15Z) - Learning Dense Object Descriptors from Multiple Views for Low-shot
Category Generalization [27.583517870047487]
本稿では、カテゴリやセマンティックなオブジェクト部分ラベルを使わずに、オブジェクトインスタンスの複数のビューからトレーニングできるDeep Object Patch rimis(DOPE)を提案する。
DOPEを訓練するために、物体の視界間の画素レベルの対応を得るために、スパースディープ、フォアグラウンドマスク、および既知のカメラへのアクセスを仮定する。
DOPEは, 局所的マッチングを用いて, 新規カテゴリーの低ショット分類に利用でき, 教師付き学習ベースラインや自己教師型学習ベースラインと競合し, 優れることがわかった。
論文 参考訳(メタデータ) (2022-11-28T04:31:53Z) - Exploiting Unlabeled Data with Vision and Language Models for Object
Detection [64.94365501586118]
堅牢で汎用的なオブジェクト検出フレームワークを構築するには、より大きなラベルスペースとより大きなトレーニングデータセットへのスケーリングが必要である。
本稿では,近年の視覚と言語モデルで利用可能なリッチなセマンティクスを利用して,未ラベル画像中のオブジェクトのローカライズと分類を行う手法を提案する。
生成した擬似ラベルの価値を,オープン語彙検出と半教師付きオブジェクト検出の2つのタスクで示す。
論文 参考訳(メタデータ) (2022-07-18T21:47:15Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - Detecting Human-Object Interaction via Fabricated Compositional Learning [106.37536031160282]
ヒューマンオブジェクトインタラクション(HOI)検出は、高レベルのシーン理解のための基本的なタスクです。
人間は珍しいまたは見えないHOIのサンプルを認識する非常に強力な構成知覚能力があります。
オープン長尾HOI検出の課題を解決するために,FCL(Fabricated Compositional Learning)を提案する。
論文 参考訳(メタデータ) (2021-03-15T08:52:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。