論文の概要: BoxShrink: From Bounding Boxes to Segmentation Masks
- arxiv url: http://arxiv.org/abs/2208.03142v1
- Date: Fri, 5 Aug 2022 13:07:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:17:21.128984
- Title: BoxShrink: From Bounding Boxes to Segmentation Masks
- Title(参考訳): boxshrink:バウンディングボックスからセグメンテーションマスクまで
- Authors: Michael Gr\"oger and Vadim Borisov and Gjergji Kasneci
- Abstract要約: そこで我々は,BoxShrinkと呼ばれる機械学習モデルをトレーニングすることなく,境界ボックスをセグメント化マスクに高速かつ堅牢に変換する,弱教師付きタスクのための新しいフレームワークを提案する。
大腸内視鏡画像データセットの入力としてバウンディングボックスアノテーションのみを使用するのに対し、IoUの平均4%の改善は、弱教師付き環境でBoxShrinkを使用してトレーニングされた際のいくつかのモデルで見られる。
- 参考スコア(独自算出の注目度): 9.886330528157645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the core challenges facing the medical image computing community is
fast and efficient data sample labeling. Obtaining fine-grained labels for
segmentation is particularly demanding since it is expensive, time-consuming,
and requires sophisticated tools. On the contrary, applying bounding boxes is
fast and takes significantly less time than fine-grained labeling, but does not
produce detailed results. In response, we propose a novel framework for
weakly-supervised tasks with the rapid and robust transformation of bounding
boxes into segmentation masks without training any machine learning model,
coined BoxShrink. The proposed framework comes in two variants -
rapid-BoxShrink for fast label transformations, and robust-BoxShrink for more
precise label transformations. An average of four percent improvement in IoU is
found across several models when being trained using BoxShrink in a
weakly-supervised setting, compared to using only bounding box annotations as
inputs on a colonoscopy image data set. We open-sourced the code for the
proposed framework and published it online.
- Abstract(参考訳): 医療画像コンピューティングコミュニティが直面する課題の1つは、高速で効率的なデータサンプルラベリングである。
セグメンテーションのためのきめ細かいラベルを持つことは、特に高価で時間がかかるため、洗練されたツールを必要とする。
逆に、バウンディングボックスの適用は高速で、きめ細かいラベル付けよりもかなり時間がかかるが、詳細な結果は得られない。
そこで本研究では,BoxShrinkという機械学習モデルをトレーニングすることなく,境界ボックスをセグメント化マスクに高速かつ堅牢に変換する,弱教師付きタスクのための新しいフレームワークを提案する。
提案されたフレームワークは、高速なラベル変換のための2つの変種Srapid-BoxShrinkと、より正確なラベル変換のための堅牢なBoxShrinkで構成されている。
大腸内視鏡画像データセットの入力としてバウンディングボックスアノテーションのみを使用するのに対して,boxshrinkを用いたトレーニングでは,いくつかのモデルで平均4%の改善が見られた。
提案されたフレームワークのコードをオープンソースとして公開しました。
関連論文リスト
- MonoBox: Tightness-free Box-supervised Polyp Segmentation using Monotonicity Constraint [22.968472794154057]
単調性に制約されたボックス教師付きセグメンテーション手法であるMonoBoxを提案する。
MonoBoxは、ユーザフレンドリーでないボックステトネス仮定からトレーニングを解放する。
パブリックシンセサイザーと社内のリアルノイズデータセットの実験は、MonoBoxが他のアンチ・ノイズ・オブ・ザ・アーティファクトを上回っていることを示している。
論文 参考訳(メタデータ) (2024-04-01T15:45:58Z) - BoxSnake: Polygonal Instance Segmentation with Box Supervision [34.487089567665556]
ボックスアノテーションのみを用いた効率的な多角形インスタンスセグメンテーションを実現するために,BoxSnakeと呼ばれる新しいエンドツーエンドトレーニング手法を提案する。
BoxSnakeはマスクベースの弱教師付き手法と比較して、予測セグメンテーションとバウンディングボックスの間のパフォーマンスギャップをさらに減らし、Cityscapesデータセットに顕著な優位性を示す。
論文 参考訳(メタデータ) (2023-03-21T06:54:18Z) - Box2Mask: Box-supervised Instance Segmentation via Level-set Evolution [38.88010537144528]
本稿では,Box2Maskという新しい単一ショットインスタンスセグメンテーション手法を提案する。
Box2Maskは、古典的なレベルセット進化モデルとディープニューラルネットワーク学習を統合して、バウンディングボックスの監督のみで正確なマスク予測を実現する。
論文 参考訳(メタデータ) (2022-12-03T09:32:14Z) - H2RBox: Horizonal Box Annotation is All You Need for Oriented Object
Detection [63.66553556240689]
オブジェクト指向物体検出は、空中画像から自律運転に至るまで、多くの用途に現れる。
多くの既存の検出ベンチマークには水平バウンディングボックスがアノテートされているが、これはきめ細かな回転ボックスよりもコストが低い。
本稿では,H2RBoxと呼ばれる単純なオブジェクト指向検出手法を提案する。
論文 参考訳(メタデータ) (2022-10-13T05:12:45Z) - BoxTeacher: Exploring High-Quality Pseudo Labels for Weakly Supervised
Instance Segmentation [33.64088504387974]
BoxTeacherは、高性能に教師付きされたインスタンスセグメンテーションのための効率的でエンドツーエンドのトレーニングフレームワークである。
疑似マスクの質を推定するために,マスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスを適応的に最適化する。
論文 参考訳(メタデータ) (2022-10-11T06:23:30Z) - Robust Visual Tracking by Segmentation [103.87369380021441]
対象範囲を推定することは、視覚的物体追跡において根本的な課題となる。
高精度なセグメンテーションマスクを生成するセグメンテーション中心のトラッキングパイプラインを提案する。
我々のトラッカーは、シーンのターゲットを背景コンテンツと明確に区別するターゲット表現をよりよく学習することができる。
論文 参考訳(メタデータ) (2022-03-21T17:59:19Z) - Box-Adapt: Domain-Adaptive Medical Image Segmentation using Bounding
BoxSupervision [52.45336255472669]
深層学習のための弱教師付きドメイン適応設定を提案する。
Box-Adaptは、ソースドメインのきめ細かいセグナオンマスクとターゲットドメインの弱いバウンディングボックスを完全に探索する。
肝セグメンテーションにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-08-19T01:51:04Z) - Medical image segmentation with imperfect 3D bounding boxes [0.0]
我々は,3次元の医療画像に対応する3次元境界ボックスを,スライス当たりの2次元境界ボックスのシリーズと見なす。
医用画像セグメンテーションにおいて, 2次元境界ボックスを弱いラベルとして使用するための現在の弱教師付きアプローチは適用可能であるが, 境界ボックスの密着性に関する仮定が壊れた場合に, それらの成功は限定的であることを示す。
そこで我々は,より大規模な非重み付きボックスアノテーションセットの厳密性を改善するために,小さなピクセルレベルのアノテーションセットに基づいて訓練された新しいバウンディングボックス補正フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-06T20:51:20Z) - Generating Masks from Boxes by Mining Spatio-Temporal Consistencies in
Videos [159.02703673838639]
フレーム毎のバウンディングボックスアノテーションからセグメンテーションマスクを生成する手法を動画で紹介します。
得られた正確なマスクを用いて、ビデオオブジェクトセグメンテーション(VOS)ネットワークの弱い教師付きトレーニングを行う。
追加データは、VOSとより困難なトラッキングドメインの両方で最先端の結果をもたらす大幅に優れた一般化パフォーマンスを提供します。
論文 参考訳(メタデータ) (2021-01-06T18:56:24Z) - Reducing the Annotation Effort for Video Object Segmentation Datasets [50.893073670389164]
ピクセルマスクでフレームを密にラベル付けしても 大規模なデータセットにはスケールしない
我々は、より安価なバウンディングボックスアノテーションからピクセルレベルで擬似ラベルを自動生成するために、深層畳み込みネットワークを使用します。
我々は新しいTAO-VOSベンチマークを取得し、www.vision.rwth-aachen.de/page/taovosで公開している。
論文 参考訳(メタデータ) (2020-11-02T17:34:45Z) - ScribbleBox: Interactive Annotation Framework for Video Object
Segmentation [62.86341611684222]
我々はScribbleBoxを紹介した。これはビデオでオブジェクトインスタンスにマスクを付けるためのインタラクティブなフレームワークだ。
パラメトリック曲線を用いて軌道を近似することにより、ボックストラックを効率的にアノテートする。
我々のScribbleBoxアプローチは、DAVIS 2017で88.92%のJ&Fに達し、ボックストラックあたり9.14クリック、4フレームのアノテーションがある。
論文 参考訳(メタデータ) (2020-08-22T00:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。