論文の概要: Learning Vector Quantized Shape Code for Amodal Blastomere Instance
Segmentation
- arxiv url: http://arxiv.org/abs/2012.00985v1
- Date: Wed, 2 Dec 2020 06:17:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 04:01:06.319431
- Title: Learning Vector Quantized Shape Code for Amodal Blastomere Instance
Segmentation
- Title(参考訳): Amodal Blastomere Instance Segmentationのためのベクトル量子形状符号の学習
- Authors: Won-Dong Jang, Donglai Wei, Xingxuan Zhang, Brian Leahy, Helen Yang,
James Tompkin, Dalit Ben-Yosef, Daniel Needleman, and Hanspeter Pfister
- Abstract要約: Amodalのインスタンスセグメンテーションは、オブジェクトが完全に見えない場合でも、オブジェクトの完全なシルエットを復元することを目的としている。
本稿では,入力特徴を中間形状コードに分類し,それらから完全なオブジェクト形状を復元することを提案する。
In vitro 受精 (IVF) クリニックにおけるブラストマーの正確な測定が可能となる。
- 参考スコア(独自算出の注目度): 33.558545104711186
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Blastomere instance segmentation is important for analyzing embryos'
abnormality. To measure the accurate shapes and sizes of blastomeres, their
amodal segmentation is necessary. Amodal instance segmentation aims to recover
the complete silhouette of an object even when the object is not fully visible.
For each detected object, previous methods directly regress the target mask
from input features. However, images of an object under different amounts of
occlusion should have the same amodal mask output, which makes it harder to
train the regression model. To alleviate the problem, we propose to classify
input features into intermediate shape codes and recover complete object shapes
from them. First, we pre-train the Vector Quantized Variational Autoencoder
(VQ-VAE) model to learn these discrete shape codes from ground truth amodal
masks. Then, we incorporate the VQ-VAE model into the amodal instance
segmentation pipeline with an additional refinement module. We also detect an
occlusion map to integrate occlusion information with a backbone feature. As
such, our network faithfully detects bounding boxes of amodal objects. On an
internal embryo cell image benchmark, the proposed method outperforms previous
state-of-the-art methods. To show generalizability, we show segmentation
results on the public KINS natural image benchmark. To examine the learned
shape codes and model design choices, we perform ablation studies on a
synthetic dataset of simple overlaid shapes. Our method would enable accurate
measurement of blastomeres in in vitro fertilization (IVF) clinics, which
potentially can increase IVF success rate.
- Abstract(参考訳): Blastomereのインスタンスセグメンテーションは、胚の異常を分析するために重要である。
ブラストマーの正確な形状と大きさを測定するためには、アモーダルセグメンテーションが必要である。
amodalインスタンスセグメンテーションは、オブジェクトが完全に見えなくても、オブジェクトの完全なシルエットを回復することを目的としている。
検出された各オブジェクトに対して、以前のメソッドは入力機能から直接ターゲットマスクを回帰する。
しかし、異なる量のオクルージョンのオブジェクトの画像は、同じアモーダルマスク出力を持つべきであるため、回帰モデルを訓練するのは困難である。
この問題を軽減するために,入力特徴を中間形状コードに分類し,それらから完全なオブジェクト形状を復元する。
まず,ベクトル量子化変分オートエンコーダ(vq-vae)モデルを事前学習し,基底真理アモーダルマスクから離散形状符号を学習する。
次に,vq-vaeモデルを改良モジュールを付加したamodalインスタンスセグメンテーションパイプラインに組み込む。
また,オクルージョン情報をバックボーンの特徴と統合するためのオクルージョンマップも検出した。
そのため,ネットワークはアモーダルオブジェクトの境界ボックスを忠実に検出する。
内胚細胞画像ベンチマークでは,提案法が従来の最先端法を上回っている。
一般化性を示すために,公開kins自然画像ベンチマークでセグメンテーション結果を示す。
学習された形状コードとモデル設計の選択を調べるために,単純なオーバーレイ形状の合成データセットについてアブレーション研究を行う。
本手法により, 体外受精(IVF)クリニックにおけるブラストマーの正確な測定が可能となり, IVF成功率の向上が期待できる。
関連論文リスト
- Amodal Instance Segmentation with Diffusion Shape Prior Estimation [10.064183379778388]
アモーダルインスタンス(AIS)は、画像内のオブジェクトの可視部分と隠蔽部分の両方のセグメンテーション予測を含む興味深い課題を提示する。
従来は、アモーダルセグメンテーションを強化するために、トレーニングデータから収集した形状の事前情報に頼っていた。
最近の進歩は、潜在空間から画像を生成するために、広範囲なデータセットで事前訓練された条件付き拡散モデルの可能性を強調している。
論文 参考訳(メタデータ) (2024-09-26T19:59:12Z) - Sequential Amodal Segmentation via Cumulative Occlusion Learning [15.729212571002906]
視覚系は、物体の可視領域と隠蔽領域の両方を分割できなければならない。
本研究では,不確実なカテゴリを持つオブジェクトの逐次アモーダルセグメンテーションを目的とした累積オクルージョン学習を用いた拡散モデルを提案する。
このモデルは拡散中の累積マスク戦略を用いて予測を反復的に洗練し、目に見えない領域の不確かさを効果的に捉える。
これは、物体間の空間的秩序を解読し、密集した視覚的な場面で隠蔽された物体の完全な輪郭を正確に予測する、アモーダル知覚の人間の能力に類似している。
論文 参考訳(メタデータ) (2024-05-09T14:17:26Z) - Learning Embeddings with Centroid Triplet Loss for Object Identification in Robotic Grasping [14.958823096408175]
基礎モデルはディープラーニングとコンピュータビジョンの強力なトレンドだ。
本稿では,そのような物体識別モデルの訓練に焦点をあてる。
このようなモデルをトレーニングするための主要な解決策は、遠心三重項損失(CTL)である。
論文 参考訳(メタデータ) (2024-04-09T13:01:26Z) - PARSAC: Accelerating Robust Multi-Model Fitting with Parallel Sample
Consensus [26.366299016589256]
雑音データから幾何モデルの複数事例を頑健に推定するリアルタイム手法を提案する。
ニューラルネットワークは、入力データを潜在的モデルインスタンスを表すクラスタに分割する。
我々は、画像当たり5ミリ秒の推論時間を持つ複数の確立されたデータセットと同様に、これらに対して最先端のパフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-01-26T14:54:56Z) - MAP: Domain Generalization via Meta-Learning on Anatomy-Consistent
Pseudo-Modalities [12.194439938007672]
解剖学的に整合した擬似モダリティ(MAP)のメタラーニングを提案する。
MAPは構造的特徴を学習することでモデル一般化性を向上させる。
各種網膜画像モダリティの公開データセットを7つ評価した。
論文 参考訳(メタデータ) (2023-09-03T22:56:22Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。