論文の概要: H-EMD: A Hierarchical Earth Mover's Distance Method for Instance
Segmentation
- arxiv url: http://arxiv.org/abs/2206.01309v1
- Date: Thu, 2 Jun 2022 21:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 13:58:20.518300
- Title: H-EMD: A Hierarchical Earth Mover's Distance Method for Instance
Segmentation
- Title(参考訳): H-EMD:階層型地球モーバーのインスタンス分割距離法
- Authors: Peixian Liang, Yizhe Zhang, Yifan Ding, Jianxu Chen, Chinedu S.
Madukoma, Tim Weninger, Joshua D. Shrout, Danny Z. Chen
- Abstract要約: H-EMD (hierarchical earth mover's distance) は、バイオメディカルな2D+タイムビデオと3D画像のセグメンテーションの例である。
バイオメディカル2D+タイムビデオや3D画像のセグメンテーションなど,階層型地球移動器距離(H-EMD)と呼ばれる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 31.621718614235146
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning (DL) based semantic segmentation methods have achieved
excellent performance in biomedical image segmentation, producing high quality
probability maps to allow extraction of rich instance information to facilitate
good instance segmentation. While numerous efforts were put into developing new
DL semantic segmentation models, less attention was paid to a key issue of how
to effectively explore their probability maps to attain the best possible
instance segmentation. We observe that probability maps by DL semantic
segmentation models can be used to generate many possible instance candidates,
and accurate instance segmentation can be achieved by selecting from them a set
of "optimized" candidates as output instances. Further, the generated instance
candidates form a well-behaved hierarchical structure (a forest), which allows
selecting instances in an optimized manner. Hence, we propose a novel
framework, called hierarchical earth mover's distance (H-EMD), for instance
segmentation in biomedical 2D+time videos and 3D images, which judiciously
incorporates consistent instance selection with semantic-segmentation-generated
probability maps. H-EMD contains two main stages. (1) Instance candidate
generation: capturing instance-structured information in probability maps by
generating many instance candidates in a forest structure. (2) Instance
candidate selection: selecting instances from the candidate set for final
instance segmentation. We formulate a key instance selection problem on the
instance candidate forest as an optimization problem based on the earth mover's
distance (EMD), and solve it by integer linear programming. Extensive
experiments on eight biomedical video or 3D datasets demonstrate that H-EMD
consistently boosts DL semantic segmentation models and is highly competitive
with state-of-the-art methods.
- Abstract(参考訳): 深層学習(DL)に基づくセマンティックセマンティックセマンティクス法は,バイオメディカル画像セマンティクスにおいて優れた性能を達成し,リッチなインスタンス情報の抽出と良好なインスタンスセマンティクスの実現を可能にした。
新しいdlセマンティクスセグメンテーションモデルの開発には多くの努力がなされたが、最良のインスタンスセグメンテーションを達成するためにそれらの確率マップを効果的に探索する方法に関して、あまり注目されなかった。
dl意味セグメンテーションモデルによる確率マップは、多くの可能なインスタンス候補を生成するために利用することができ、それらから出力インスタンスとして「最適化」候補のセットを選択することで、正確なインスタンスセグメンテーションを実現することができる。
さらに、生成されたインスタンス候補は、適切に構成された階層構造(フォレスト)を形成し、最適化された方法でインスタンスを選択することができる。
そこで本研究では, バイオメディカル2D+タイムビデオと3D画像のセグメンテーションにおいて, セグメンテーション生成確率マップと一貫したインスタンス選択を組み込んだ, H-EMD (hierarchical earth mover's distance) という新しいフレームワークを提案する。
H-EMDは2つの主要なステージを含む。
1) インスタンス候補生成: 森林構造において多数のインスタンス候補を生成して、確率マップにおけるインスタンス構造情報を取得する。
(2) インスタンス候補選択: 最終的なインスタンスセグメンテーションのための候補セットからインスタンスを選択する。
我々は,地球移動者の距離(emd)に基づく最適化問題として,インスタンス候補フォレスト上のキーインスタンス選択問題を定式化し,整数線形計画を用いて解く。
8つのバイオメディカルビデオまたは3Dデータセットに対する大規模な実験により、H-EMDはDLセマンティックセグメンテーションモデルを一貫して強化し、最先端の手法と非常に競合することを示した。
関連論文リスト
- Instance Consistency Regularization for Semi-Supervised 3D Instance Segmentation [50.51125319374404]
ラベルのないデータから純粋なインスタンス知識を探索し活用するための,新たな自己学習ネットワークInsTeacher3Dを提案する。
複数の大規模データセットの実験結果から、InsTeacher3Dは最先端の半教師付きアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-06-24T16:35:58Z) - Instance-aware 3D Semantic Segmentation powered by Shape Generators and
Classifiers [28.817905887080293]
本稿では,3次元セマンティックセグメンテーションのための新しいインスタンス認識手法を提案する。
本手法は,学習した特徴表現の一貫性を促進するために,インスタンスレベルでの幾何処理タスクを組み合わせる。
論文 参考訳(メタデータ) (2023-11-21T02:14:16Z) - Synthetic Instance Segmentation from Semantic Image Segmentation Masks [15.477053085267404]
我々は、Synthetic Instance(SISeg)と呼ばれる新しいパラダイムを提案する。
SISegインスタンスセグメンテーションの結果は、既存のセマンティックセグメンテーションモデルによって生成されたイメージマスクを活用する。
言い換えれば、提案モデルは余分な人力や高い計算コストを必要としない。
論文 参考訳(メタデータ) (2023-08-02T05:13:02Z) - PointInst3D: Segmenting 3D Instances by Points [136.7261709896713]
本稿では,ポイント単位の予測方式で機能する,完全畳み込み型3Dポイントクラウドインスタンスセグメンテーション手法を提案する。
その成功の鍵は、各サンプルポイントに適切なターゲットを割り当てることにある。
提案手法はScanNetとS3DISのベンチマークで有望な結果が得られる。
論文 参考訳(メタデータ) (2022-04-25T02:41:46Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Unifying Instance and Panoptic Segmentation with Dynamic Rank-1
Convolutions [109.2706837177222]
DR1Maskは、インスタンスとセマンティックセグメンテーションの両方で共有機能マップを利用する最初のパノプティクスセグメンテーションフレームワークである。
副産物として、DR1Maskは従来の最先端のインスタンスセグメンテーションネットワークであるBlendMaskよりも10%高速で1ポイント精度が高い。
論文 参考訳(メタデータ) (2020-11-19T12:42:10Z) - Deep Variational Instance Segmentation [7.334808870313923]
State-of-the-artアルゴリズムは、しばしば2つの別々のステージを使用し、最初の1つはオブジェクトの提案を生成し、もう1つは境界を認識して修正する。
完全畳み込みネットワーク(FCN)を直接利用して,インスタンスラベルを予測する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-22T17:57:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。