論文の概要: Weakly Supervised Image Segmentation Beyond Tight Bounding Box
Annotations
- arxiv url: http://arxiv.org/abs/2301.12053v1
- Date: Sat, 28 Jan 2023 02:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 19:23:01.815134
- Title: Weakly Supervised Image Segmentation Beyond Tight Bounding Box
Annotations
- Title(参考訳): 厳密なバウンディングボックスアノテーションを超えた弱教師付き画像セグメンテーション
- Authors: Juan Wang and Bin Xia
- Abstract要約: 本研究では,ゆるい拘束箱を監督として使用する場合,セグメンテーション性能を良好に維持できるかどうかを検討する。
提案した極変換に基づくMIL定式化は、タイトかつゆるいバウンディングボックスの両方で機能する。
その結果, 提案手法は, 任意の精度でバウンディングボックスの最先端性能を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 5.000514512377416
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Weakly supervised image segmentation approaches in the literature usually
achieve high segmentation performance using tight bounding box supervision and
decrease the performance greatly when supervised by loose bounding boxes.
However, compared with loose bounding box, it is much more difficult to acquire
tight bounding box due to its strict requirements on the precise locations of
the four sides of the box. To resolve this issue, this study investigates
whether it is possible to maintain good segmentation performance when loose
bounding boxes are used as supervision. For this purpose, this work extends our
previous parallel transformation based multiple instance learning (MIL) for
tight bounding box supervision by integrating an MIL strategy based on polar
transformation to assist image segmentation. The proposed polar transformation
based MIL formulation works for both tight and loose bounding boxes, in which a
positive bag is defined as pixels in a polar line of a bounding box with one
endpoint located inside the object enclosed by the box and the other endpoint
located at one of the four sides of the box. Moreover, a weighted smooth
maximum approximation is introduced to incorporate the observation that pixels
closer to the origin of the polar transformation are more likely to belong to
the object in the box. The proposed approach was evaluated on two public
datasets using dice coefficient when bounding boxes at different precision
levels were considered in the experiments. The results demonstrate that the
proposed approach achieves state-of-the-art performance for bounding boxes at
all precision levels and is robust to mild and moderate errors in the loose
bounding box annotations. The codes are available at
\url{https://github.com/wangjuan313/wsis-beyond-tightBB}.
- Abstract(参考訳): 文献における弱教師付き画像分割アプローチは,厳密なバウンディングボックスによる高いセグメンテーション性能を達成し,ゆるいバウンディングボックスによって監督された場合の性能を著しく低下させる。
しかしながら、ゆるいバウンディングボックスと比較して、ボックスの4辺の正確な位置に関する厳密な要件のため、タイトなバウンディングボックスを取得することははるかに困難である。
そこで本研究では,ゆるい境界ボックスを監督として使用する場合に,セグメンテーション性能を良好に維持できるかどうかを検討する。
本研究は、画像分割を支援するために極変換に基づくMIL戦略を統合することにより、厳密な境界ボックス管理のための従来の並列変換に基づくマルチインスタンス学習(MIL)を拡張した。
提案する極性変換に基づくミルの定式化は、密接な境界ボックスとゆるい境界ボックスの両方で動作し、正の袋は境界ボックスの極性ライン内のピクセルとして定義され、一方のエンドポイントはボックスで囲まれたオブジェクトの内側にあり、もう一方のエンドポイントはボックスの4つの側面のどちらかにある。
さらに、極性変換の原点に近いピクセルがボックス内のオブジェクトに属する可能性が高いという観測を組み込むために、重み付き滑らかな最大近似が導入された。
実験では, 異なる精度の箱が検討された場合, ダイス係数を用いて2つの公開データセット上で評価を行った。
提案手法は,すべての精度レベルで境界ボックスの最先端性能を実現し,ゆるい境界ボックスアノテーションにおける緩やかで適度なエラーに対して頑健であることを示す。
コードは \url{https://github.com/wangjuan313/wsis-beyond-tightbb} で入手できる。
関連論文リスト
- Shape-IoU: More Accurate Metric considering Bounding Box Shape and Scale [5.8666339171606445]
形状IoU法は、バウンディングボックス自体の形状とスケールに着目して損失を算出することができる。
本手法は, 検出性能を効果的に向上し, 既存の手法よりも優れ, 異なる検出タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-12-29T16:05:02Z) - Rigidity-Aware Detection for 6D Object Pose Estimation [60.88857851869196]
最近の6Dオブジェクトのポーズ推定方法は、最初にオブジェクト検出を使用して2Dバウンディングボックスを取得し、実際にポーズを回帰する。
本研究では,6次元ポーズ推定において対象物体が剛性であるという事実を利用した剛性認識検出手法を提案する。
このアプローチの成功の鍵となるのは可視性マップであり、これは境界ボックス内の各ピクセルとボックス境界の間の最小障壁距離を用いて構築することを提案する。
論文 参考訳(メタデータ) (2023-03-22T09:02:54Z) - BoxPolyp:Boost Generalized Polyp Segmentation Using Extra Coarse
Bounding Box Annotations [79.17754846553866]
我々は、正確なマスクと余分な粗いボックスアノテーションをフル活用するための強化されたBoxPolypモデルを提案する。
実際には、従来のポリプセグメンテーションモデルの過度に適合する問題を緩和するためにボックスアノテーションが適用される。
提案手法は従来の最先端手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2022-12-07T07:45:50Z) - OPA-3D: Occlusion-Aware Pixel-Wise Aggregation for Monocular 3D Object
Detection [51.153003057515754]
OPA-3Dは、Occlusion-Aware Pixel-Wise Aggregationネットワークである。
密集した風景深度と、奥行きのある箱残量と物の境界箱を共同で推定する。
メインカーのカテゴリーでは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-02T14:19:13Z) - Polar Transformation Based Multiple Instance Learning Assisting Weakly
Supervised Image Segmentation With Loose Bounding Box Annotations [5.000514512377416]
本研究では,ゆるい境界ボックスによる画像セグメント化について検討した。
極変換に基づく複数のインスタンス学習戦略を示し、ゆるいバウンディングボックスを監督するときに画像セグメンテーションを支援する。
論文 参考訳(メタデータ) (2022-03-03T00:44:40Z) - Bounding Box Tightness Prior for Weakly Supervised Image Segmentation [5.517632401040172]
ディープニューラルネットワーク以前のバウンディングボックスのタイツネスをエンドツーエンドで統合するために、一般化された多重インスタンス学習(MIL)と滑らかな最大近似を提案する。
提案手法はDice係数を用いて2つのパビック医療データセットを用いて評価した。
論文 参考訳(メタデータ) (2021-10-03T06:19:20Z) - Medical image segmentation with imperfect 3D bounding boxes [0.0]
我々は,3次元の医療画像に対応する3次元境界ボックスを,スライス当たりの2次元境界ボックスのシリーズと見なす。
医用画像セグメンテーションにおいて, 2次元境界ボックスを弱いラベルとして使用するための現在の弱教師付きアプローチは適用可能であるが, 境界ボックスの密着性に関する仮定が壊れた場合に, それらの成功は限定的であることを示す。
そこで我々は,より大規模な非重み付きボックスアノテーションセットの厳密性を改善するために,小さなピクセルレベルのアノテーションセットに基づいて訓練された新しいバウンディングボックス補正フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-06T20:51:20Z) - Look Closer to Segment Better: Boundary Patch Refinement for Instance
Segmentation [51.59290734837372]
境界品質を改善するために,概念的にシンプルで効果的な後処理改善フレームワークを提案する。
提案されたBPRフレームワークは、CityscapesベンチマークのMask R-CNNベースラインを大幅に改善する。
BPRフレームワークをPolyTransform + SegFixベースラインに適用することで、Cityscapesのリーダーボードで1位に到達しました。
論文 参考訳(メタデータ) (2021-04-12T07:10:48Z) - Dive Deeper Into Box for Object Detection [49.923586776690115]
そこで我々は,より正確な位置決めを行うために,ボックスに深く潜り込むことができるボックス再構成手法(DDBNet)を提案する。
実験結果から,本手法はオブジェクト検出の最先端性能に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-15T07:49:05Z) - DeepStrip: High Resolution Boundary Refinement [60.00241966809684]
関心領域をストリップ画像に変換し、ストリップ領域の境界予測を計算することを提案する。
対象境界を検出するために,2つの予測層を持つフレームワークを提案する。
我々は、誤報を減らすために、整合性とC0連続性正規化をネットワークに強制する。
論文 参考訳(メタデータ) (2020-03-25T22:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。