論文の概要: Towards Annotation-free Instance Segmentation and Tracking with
Adversarial Simulations
- arxiv url: http://arxiv.org/abs/2101.00567v2
- Date: Tue, 19 Jan 2021 22:32:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 11:36:14.824206
- Title: Towards Annotation-free Instance Segmentation and Tracking with
Adversarial Simulations
- Title(参考訳): 逆シミュレーションによるアノテーションフリーインスタンスセグメンテーションと追跡
- Authors: Quan Liu, Isabella M. Gaeta, Mengyang Zhao, Ruining Deng, Aadarsh Jha,
Bryan A. Millis, Anita Mahadevan-Jansen, Matthew J. Tyska, Yuankai Huo
- Abstract要約: コンピュータビジョンでは、一貫したセグメンテーションと追跡を伴う注釈付きトレーニングデータがリソース集約的である。
敵シミュレーションは、現実の自動運転システムを訓練するためのコンピュータビジョンのソリューションとして成功している。
本稿では,逆シミュレーションと単段画素埋め込み学習を用いたアノテーションフリー合成インスタンスセグメンテーション・トラッキング(asist)手法を提案する。
- 参考スコア(独自算出の注目度): 5.434831972326107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quantitative analysis of microscope videos often requires instance
segmentation and tracking of cellular and subcellular objects. The traditional
method is composed of two stages: (1) performing instance object segmentation
of each frame, and (2) associating objects frame-by-frame. Recently,
pixel-embedding-based deep learning approaches provide single stage holistic
solutions to tackle instance segmentation and tracking simultaneously. However,
such deep learning methods require consistent annotations not only spatially
(for segmentation), but also temporally (for tracking). In computer vision,
annotated training data with consistent segmentation and tracking is resource
intensive, the severity of which can be multiplied in microscopy imaging due to
(1) dense objects (e.g., overlapping or touching), and (2) high dynamics (e.g.,
irregular motion and mitosis). To alleviate the lack of such annotations in
dynamics scenes, adversarial simulations have provided successful solutions in
computer vision, such as using simulated environments (e.g., computer games) to
train real-world self-driving systems. In this paper, we propose an
annotation-free synthetic instance segmentation and tracking (ASIST) method
with adversarial simulation and single-stage pixel-embedding based learning.
The contribution of this paper is three-fold: (1) the proposed method
aggregates adversarial simulations and single-stage pixel-embedding based deep
learning; (2) the method is assessed with both the cellular (i.e., HeLa cells)
and subcellular (i.e., microvilli) objects; and (3) to the best of our
knowledge, this is the first study to explore annotation-free instance
segmentation and tracking study for microscope videos. This ASIST method
achieved an important step forward, when compared with fully supervised
approaches.
- Abstract(参考訳): 顕微鏡ビデオの定量的解析は、しばしば、細胞および細胞内のオブジェクトのインスタンス分割と追跡を必要とする。
従来の方法は、(1)各フレームのインスタンスオブジェクトセグメンテーションを実行する、(2)フレームごとにオブジェクトを関連付ける、の2つのステージで構成される。
近年,画素埋め込みに基づくディープラーニングアプローチは,インスタンスのセグメンテーションとトラッキングを同時に行うための一段階の全体解を提供する。
しかし、このような深層学習手法は、空間的(セグメンテーション)だけでなく、時間的(トラッキング)にも一貫したアノテーションを必要とする。
コンピュータビジョンでは、一貫したセグメンテーションとトラッキングを備えた注釈付きトレーニングデータは資源集約的であり、(1)高密度物体(例えば重ね合わせやタッチ)、(2)高いダイナミクス(例えば不規則な運動や分裂)による顕微鏡イメージングにおいて重大度を乗じることができる。
ダイナミックスシーンにおけるこのようなアノテーションの欠如を緩和するため、現実の自動運転システムの訓練にシミュレーション環境(コンピュータゲームなど)を使用するなど、コンピュータビジョンで成功したソリューションを提供している。
本稿では,逆シミュレーションと単段階画素埋め込みに基づく学習を併用したアノテーションのない合成インスタンスセグメンテーション・トラッキング(ASIST)手法を提案する。
提案手法は,(1)敵対的シミュレーションと1段階の画素埋め込みに基づくディープラーニングを集約し,(2)細胞(hela細胞)と細胞内(microvilli)の両方で評価し,(3)我々の知る限りでは,顕微鏡ビデオにおけるアノテーションフリーなインスタンス分割と追跡研究を探求する最初の研究である。
このASIST法は、完全な教師付きアプローチと比較して、重要な一歩を踏み出した。
関連論文リスト
- Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Self-Supervised Interactive Object Segmentation Through a
Singulation-and-Grasping Approach [9.029861710944704]
本稿では,新しいオブジェクトと対話し,各オブジェクトのトレーニングラベルを収集するロボット学習手法を提案する。
Singulation-and-Grasping(SaG)ポリシは、エンドツーエンドの強化学習を通じてトレーニングされる。
本システムは,シミュレートされた散文シーンにおいて,70%の歌唱成功率を達成する。
論文 参考訳(メタデータ) (2022-07-19T15:01:36Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Sim2Real Object-Centric Keypoint Detection and Description [40.58367357980036]
キーポイントの検出と記述はコンピュータビジョンにおいて中心的な役割を果たす。
対象中心の定式化を提案し、各関心点が属する対象をさらに特定する必要がある。
我々はシミュレーションで訓練されたモデルを現実のアプリケーションに一般化できるsim2realコントラスト学習機構を開発した。
論文 参考訳(メタデータ) (2022-02-01T15:00:20Z) - Joint Inductive and Transductive Learning for Video Object Segmentation [107.32760625159301]
半教師付きオブジェクトセグメンテーションは、第1フレームのマスクだけを与えられたビデオシーケンスで対象オブジェクトをセグメンテーションするタスクである。
過去の最も優れた手法は、マッチングベースの帰納的推論やオンライン帰納的学習を採用していた。
本稿では,トランスダクティブ学習とインダクティブ学習を統合したフレームワークに統合し,それら間の補完を利用して,高精度かつ堅牢なビデオオブジェクトセグメンテーションを提案する。
論文 参考訳(メタデータ) (2021-08-08T16:25:48Z) - Learning to Track Instances without Video Annotations [85.9865889886669]
本稿では,ラベル付き画像データセットとラベルなしビデオシーケンスのみを用いたインスタンス追跡ネットワークを学習する,新しい半教師付きフレームワークを提案する。
画像のみを訓練しても,学習した特徴表現は出現の変動にロバストであることが判明した。
さらに、このモジュールを単一ステージのインスタンスセグメンテーションとポーズ推定フレームワークに統合します。
論文 参考訳(メタデータ) (2021-04-01T06:47:41Z) - Point-supervised Segmentation of Microscopy Images and Volumes via
Objectness Regularization [2.243486411968779]
この作業により、イメージ上のセマンティックセグメンテーションネットワークのトレーニングが、1インスタンスあたりのトレーニングのための単一のポイントで可能になる。
デジタル病理学における挑戦的なデータセットにおけるポイント・スーパーバイザーのセマンティクス・セグメンテーションの最先端に対する競争結果を達成します。
論文 参考訳(メタデータ) (2021-03-09T18:40:00Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - ASIST: Annotation-free synthetic instance segmentation and tracking for
microscope video analysis [8.212196747588361]
サブセルマイクロビリの顕微鏡映像を解析するための,アノテーションのない新規な合成インスタンスセグメンテーション・トラッキングアルゴリズムを提案する。
実験結果から,提案手法は教師あり学習よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-11-02T14:39:26Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。