論文の概要: Semantic Video Segmentation for Intracytoplasmic Sperm Injection
Procedures
- arxiv url: http://arxiv.org/abs/2101.01207v1
- Date: Mon, 4 Jan 2021 19:33:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 00:34:06.827312
- Title: Semantic Video Segmentation for Intracytoplasmic Sperm Injection
Procedures
- Title(参考訳): 細胞質内精子注入術におけるセマンティックビデオセグメンテーション
- Authors: Peter He, Raksha Jain, J\'er\^ome Chambost, C\'eline Jacques, Cristina
Hickman
- Abstract要約: 本研究では,細胞内精子注入法(ICSI)を解析するための深層学習モデルを提案する。
我々はディープニューラルネットワークをトレーニングし、0.962の平均IoUを達成するビデオのキーオブジェクトをセグメント化し、1つのGPU上で平均3.793ピクセルの画素誤差を14FPSで達成するニードル先端をローカライズする。
- 参考スコア(独自算出の注目度): 7.813460653362095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first deep learning model for the analysis of intracytoplasmic
sperm injection (ICSI) procedures. Using a dataset of ICSI procedure videos, we
train a deep neural network to segment key objects in the videos achieving a
mean IoU of 0.962, and to localize the needle tip achieving a mean pixel error
of 3.793 pixels at 14 FPS on a single GPU. We further analyze the variation
between the dataset's human annotators and find the model's performance to be
comparable to human experts.
- Abstract(参考訳): 細胞質内精子注入法 (ICSI) 解析のための最初の深層学習モデルを提案する。
ICSIプロシージャビデオのデータセットを用いて、深いニューラルネットワークを使用して、0.962の平均IoUを達成するビデオ内のキーオブジェクトをセグメント化し、単一のGPU上で平均3.793ピクセルの画素誤差を達成するニードル先端を14FPSでローカライズする。
さらに、データセットのヒューマンアノテータ間のバリエーションを分析し、モデルのパフォーマンスが人間のエキスパートに匹敵するものであることを見出します。
関連論文リスト
- WATUNet: A Deep Neural Network for Segmentation of Volumetric Sweep
Imaging Ultrasound [1.2903292694072621]
ボリューム・スイープ・イメージング(VSI)は、訓練を受けていないオペレーターが高品質な超音波画像をキャプチャできる革新的な手法である。
本稿ではWavelet_Attention_UNet(WATUNet)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルでは、簡単な接続ではなく、ウェーブレットゲート(WG)とアテンションゲート(AG)をエンコーダとデコーダの間に組み込んで、上記の制限を克服する。
論文 参考訳(メタデータ) (2023-11-17T20:32:37Z) - Comparative analysis of deep learning approaches for AgNOR-stained
cytology samples interpretation [52.77024349608834]
本稿では, 深層学習手法を用いて, 好気性ヌクレオラオーガナイザ領域 (AgNOR) 染色スライダを解析する方法を提案する。
以上の結果から,バックボーンとしてResNet-18やResNet-34を用いたU-Netを用いたセマンティックセマンティックセマンティックセマンティクスは類似した結果を示す。
最も優れたモデルは、それぞれ0.83、0.92、0.99の核、クラスター、衛星のIoUを示す。
論文 参考訳(メタデータ) (2022-10-19T15:15:32Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Segmentation of kidney stones in endoscopic video feeds [2.572404739180802]
生のビデオからデータセットを構築する方法と、可能な限り多くのプロセスを自動化するパイプラインを開発する方法について説明します。
また, リアルタイム使用の可能性を示すため, 最適なトレーニングモデルにより, 毎秒30フレームの動画を正確にアノテートできることを確認した。
論文 参考訳(メタデータ) (2022-04-29T16:00:52Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - EfficientCellSeg: Efficient Volumetric Cell Segmentation Using Context
Aware Pseudocoloring [4.555723508665994]
ボリュームセルセグメンテーションのための小さな畳み込みニューラルネットワーク(CNN)を導入する。
我々のモデルは効率的で非対称なエンコーダ・デコーダ構造を持ち、デコーダにはほとんどパラメータがない。
我々のCNNモデルは,他の上位手法に比べて最大25倍のパラメータ数を持つ。
論文 参考訳(メタデータ) (2022-04-06T18:02:15Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Evaluation of Deep Learning Topcoders Method for Neuron
Individualization in Histological Macaque Brain Section [0.0]
神経学的データに基づく細胞識別を行うためのアンサンブル深層学習アルゴリズムを提案する。
提案手法は, 平均検出精度0.93で, 物体レベルでも画素レベルでも, 神経細胞のセグメンテーションに成功したことを示唆する。
論文 参考訳(メタデータ) (2021-11-10T16:38:35Z) - Predicting Semen Motility using three-dimensional Convolutional Neural
Networks [0.0]
本稿では,3次元畳み込みニューラルネットワークを用いて,精液試料の顕微鏡映像から精子の運動性を予測する深層学習手法を提案する。
私たちのモデルは、深層学習ベースの自動精液分析が受精率とIVFラボで価値があり効果的なツールになることを示しています。
論文 参考訳(メタデータ) (2021-01-08T07:38:52Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。