論文の概要: ASIST: Annotation-free synthetic instance segmentation and tracking for
microscope video analysis
- arxiv url: http://arxiv.org/abs/2011.01009v1
- Date: Mon, 2 Nov 2020 14:39:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:50:24.000346
- Title: ASIST: Annotation-free synthetic instance segmentation and tracking for
microscope video analysis
- Title(参考訳): ASIST:顕微鏡ビデオ解析のためのアノテーションなし合成インスタンスセグメンテーションと追跡
- Authors: Quan Liu, Isabella M. Gaeta, Mengyang Zhao, Ruining Deng, Aadarsh Jha,
Bryan A. Millis, Anita Mahadevan-Jansen, Matthew J. Tyska, Yuankai Huo
- Abstract要約: サブセルマイクロビリの顕微鏡映像を解析するための,アノテーションのない新規な合成インスタンスセグメンテーション・トラッキングアルゴリズムを提案する。
実験結果から,提案手法は教師あり学習よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 8.212196747588361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instance object segmentation and tracking provide comprehensive
quantification of objects across microscope videos. The recent single-stage
pixel-embedding based deep learning approach has shown its superior performance
compared with "segment-then-associate" two-stage solutions. However, one major
limitation of applying a supervised pixel-embedding based method to microscope
videos is the resource-intensive manual labeling, which involves tracing
hundreds of overlapped objects with their temporal associations across video
frames. Inspired by the recent generative adversarial network (GAN) based
annotation-free image segmentation, we propose a novel annotation-free
synthetic instance segmentation and tracking (ASIST) algorithm for analyzing
microscope videos of sub-cellular microvilli. The contributions of this paper
are three-fold: (1) proposing a new annotation-free video analysis paradigm is
proposed. (2) aggregating the embedding based instance segmentation and
tracking with annotation-free synthetic learning as a holistic framework; and
(3) to the best of our knowledge, this is first study to investigate microvilli
instance segmentation and tracking using embedding based deep learning. From
the experimental results, the proposed annotation-free method achieved superior
performance compared with supervised learning.
- Abstract(参考訳): 例 オブジェクトのセグメンテーションとトラッキングは、顕微鏡ビデオ全体のオブジェクトの包括的な定量化を提供する。
最近のシングルステージのpixel-embeddingベースのディープラーニングアプローチは、"segment-then-associate"の二段階ソリューションよりも優れたパフォーマンスを示している。
しかし、顕微鏡ビデオに教師付きピクセル埋め込み法を適用する際の大きな制限は、数百の重なり合ったオブジェクトをビデオフレーム間で時間的関連で追跡するリソース集約型手動ラベリングである。
近年のgenerative adversarial network (gan) に基づくアノテーションフリー画像セグメンテーションに触発され,マイクロヴィリの顕微鏡映像を解析するためのアノテーションフリー合成インスタンスセグメンテーション・トラッキング (asist) アルゴリズムを提案する。
本論文の貢献は3つある:(1)新しいアノテーションのないビデオ分析パラダイムを提案する。
2)包括的枠組みとしてアノテーションフリー合成学習を用いた組込み型インスタンスセグメンテーションとトラッキングを集約し,(3)我々の知識を最大限に活用するために,組込み型ディープラーニングを用いたマイクロヴィリアーなインスタンスセグメンテーションとトラッキングを初めて検討した。
実験結果から,提案手法は教師あり学習よりも優れた性能を示した。
関連論文リスト
- What is Point Supervision Worth in Video Instance Segmentation? [119.71921319637748]
ビデオインスタンスセグメンテーション(VIS)は、ビデオ内のオブジェクトを検出し、セグメンテーションし、追跡することを目的とした、難しいビジョンタスクである。
トレーニング中、ビデオフレーム内の各オブジェクトについて、人間のアノテーションを1点に減らし、完全に教師されたモデルに近い高品質なマスク予測を得る。
3つのVISベンチマークに関する総合的な実験は、提案フレームワークの競合性能を示し、完全に教師付きされた手法にほぼ一致する。
論文 参考訳(メタデータ) (2024-04-01T17:38:25Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Exemplar Learning for Medical Image Segmentation [38.61378161105941]
医用画像セグメンテーションのためのempllar Learning-based Synthesis Net (ELSNet) フレームワークを提案する。
ELSNetはイメージセグメンテーションのための2つの新しいモジュールを導入している。
いくつかの臓器セグメント化データセットの実験を行い,詳細な解析を行った。
論文 参考訳(メタデータ) (2022-04-03T00:10:06Z) - Joint Inductive and Transductive Learning for Video Object Segmentation [107.32760625159301]
半教師付きオブジェクトセグメンテーションは、第1フレームのマスクだけを与えられたビデオシーケンスで対象オブジェクトをセグメンテーションするタスクである。
過去の最も優れた手法は、マッチングベースの帰納的推論やオンライン帰納的学習を採用していた。
本稿では,トランスダクティブ学習とインダクティブ学習を統合したフレームワークに統合し,それら間の補完を利用して,高精度かつ堅牢なビデオオブジェクトセグメンテーションを提案する。
論文 参考訳(メタデータ) (2021-08-08T16:25:48Z) - Semi-TCL: Semi-Supervised Track Contrastive Representation Learning [40.31083437957288]
我々は、外観埋め込みを学習するために、新しいインスタンス・ツー・トラックマッチングの目的を設計する。
候補検出とトラッカーに永続化されたトラックの埋め込みを比較する。
我々は,この学習目標を,構成的損失の精神に倣って統一的な形で実施する。
論文 参考訳(メタデータ) (2021-07-06T05:23:30Z) - Learning to Track Instances without Video Annotations [85.9865889886669]
本稿では,ラベル付き画像データセットとラベルなしビデオシーケンスのみを用いたインスタンス追跡ネットワークを学習する,新しい半教師付きフレームワークを提案する。
画像のみを訓練しても,学習した特徴表現は出現の変動にロバストであることが判明した。
さらに、このモジュールを単一ステージのインスタンスセグメンテーションとポーズ推定フレームワークに統合します。
論文 参考訳(メタデータ) (2021-04-01T06:47:41Z) - Towards Annotation-free Instance Segmentation and Tracking with
Adversarial Simulations [5.434831972326107]
コンピュータビジョンでは、一貫したセグメンテーションと追跡を伴う注釈付きトレーニングデータがリソース集約的である。
敵シミュレーションは、現実の自動運転システムを訓練するためのコンピュータビジョンのソリューションとして成功している。
本稿では,逆シミュレーションと単段画素埋め込み学習を用いたアノテーションフリー合成インスタンスセグメンテーション・トラッキング(asist)手法を提案する。
論文 参考訳(メタデータ) (2021-01-03T07:04:13Z) - Unsupervised Learning of Video Representations via Dense Trajectory
Clustering [86.45054867170795]
本稿では,ビデオにおける行動認識のための表現の教師なし学習の課題に対処する。
まず、このクラスの2つのトップパフォーマンス目標(インスタンス認識と局所集約)を適用することを提案する。
有望な性能を観察するが、定性的解析により、学習した表現が動きのパターンを捉えないことを示す。
論文 参考訳(メタデータ) (2020-06-28T22:23:03Z) - Motion2Vec: Semi-Supervised Representation Learning from Surgical Videos [23.153335327822685]
動作セグメント/サブゴール/オプションにグループ化することで,手術映像の動作中心の表現を学習する。
我々はビデオ観察から深い埋め込み特徴空間を学習するアルゴリズムであるMotion2Vecを紹介する。
この表現を用いて,JIGSAWSデータセットの公開ビデオからの外科的縫合動作を模倣する。
論文 参考訳(メタデータ) (2020-05-31T15:46:01Z) - Motion-supervised Co-Part Segmentation [88.40393225577088]
本稿では,コパートセグメンテーションのための自己教師型ディープラーニング手法を提案する。
提案手法は,映像から推定される動き情報を有効活用して意味のある物体の発見を可能にする。
論文 参考訳(メタデータ) (2020-04-07T09:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。