論文の概要: Temporally Constrained Neural Networks (TCNN): A framework for
semi-supervised video semantic segmentation
- arxiv url: http://arxiv.org/abs/2112.13815v1
- Date: Mon, 27 Dec 2021 18:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 17:38:46.235980
- Title: Temporally Constrained Neural Networks (TCNN): A framework for
semi-supervised video semantic segmentation
- Title(参考訳): 時間拘束型ニューラルネットワーク(TCNN):半教師付きビデオセマンティックセグメンテーションのためのフレームワーク
- Authors: Deepak Alapatt, Pietro Mascagni, Armine Vardazaryan, Alain Garcia,
Nariaki Okamoto, Didier Mutter, Jacques Marescaux, Guido Costamagna, Bernard
Dallemagne, Nicolas Padoy
- Abstract要約: 本稿では,手術ビデオのセマンティックセグメンテーションに使用される半教師付きフレームワークTCNNを紹介する。
本研究では,オートエンコーダネットワークを用いて,空間的および時間的監視信号の両方を効率的に提供できることを示す。
予測マスクの低次元表現を有効活用して,スパースラベル付き両方のデータセットに一貫した改善を実現することを実証した。
- 参考スコア(独自算出の注目度): 5.0754434714665715
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A major obstacle to building models for effective semantic segmentation, and
particularly video semantic segmentation, is a lack of large and well annotated
datasets. This bottleneck is particularly prohibitive in highly specialized and
regulated fields such as medicine and surgery, where video semantic
segmentation could have important applications but data and expert annotations
are scarce. In these settings, temporal clues and anatomical constraints could
be leveraged during training to improve performance. Here, we present
Temporally Constrained Neural Networks (TCNN), a semi-supervised framework used
for video semantic segmentation of surgical videos. In this work, we show that
autoencoder networks can be used to efficiently provide both spatial and
temporal supervisory signals to train deep learning models. We test our method
on a newly introduced video dataset of laparoscopic cholecystectomy procedures,
Endoscapes, and an adaptation of a public dataset of cataract surgeries, CaDIS.
We demonstrate that lower-dimensional representations of predicted masks can be
leveraged to provide a consistent improvement on both sparsely labeled datasets
with no additional computational cost at inference time. Further, the TCNN
framework is model-agnostic and can be used in conjunction with other model
design choices with minimal additional complexity.
- Abstract(参考訳): 効果的なセマンティクスセグメンテーション、特にビデオセマンティクスセグメンテーションのためのモデルを構築する上での大きな障害は、大きな注釈付きデータセットの欠如である。
このボトルネックは、ビデオ意味セマンティクスのセグメンテーションが重要な用途を持つが、データや専門家のアノテーションが不足する、医療や手術のような高度に専門的で規制された分野において、特に禁止されている。
これらの設定では、時間的手がかりと解剖学的制約がトレーニング中に活用され、パフォーマンスが向上する。
本稿では,手術ビデオのセマンティックセグメンテーションに使用される半教師付きフレームワークであるTCNNを紹介する。
本研究では,自動エンコーダネットワークを用いて,空間的および時間的監視信号を効率的に提供し,ディープラーニングモデルをトレーニングできることを示す。
本手法は,腹腔鏡下胆嚢摘出術,内分泌術,白内障手術の適応の動画データセットであるCaDISを用いて試験を行った。
予測マスクの低次元表現は、推論時に余分な計算コストを伴わないスパースラベル付きデータセットに一貫した改善をもたらすことができることを示す。
さらに、tcnnフレームワークはモデルに依存しず、最小限の複雑さで他のモデル設計選択と併用することができる。
関連論文リスト
- TBConvL-Net: A Hybrid Deep Learning Architecture for Robust Medical Image Segmentation [6.013821375459473]
医用画像セグメンテーションのための新しいディープラーニングアーキテクチャを提案する。
提案モデルでは,10の公開データセット上でのテクニックの現状に対して,一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-09-05T09:14:03Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - A spatio-temporal network for video semantic segmentation in surgical
videos [11.548181453080087]
ビデオにおける時間的関係をモデル化するための新しいアーキテクチャを提案する。
提案モデルは,セマンティックビデオセグメンテーションを可能にするデコーダを含む。
提案するデコーダは,任意のセグメンテーションエンコーダ上で時間的整合性を改善するために使用することができる。
論文 参考訳(メタデータ) (2023-06-19T16:36:48Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Surgical Skill Assessment via Video Semantic Aggregation [20.396898001950156]
本稿では,異なる意味的部分を発見し,時間次元にまたがって集約する,スキルアセスメントフレームワークであるビデオセマンティックアグリゲーション(ViSA)を提案する。
意味的部分の明示的な発見は、ニューラルネットワークの決定を理解するのに役立つ説明的可視化を提供する。
2つのデータセットの実験は、最先端の手法と比較して、ViSAの競争力を示している。
論文 参考訳(メタデータ) (2022-08-04T12:24:01Z) - Anatomy-Constrained Contrastive Learning for Synthetic Segmentation
without Ground-truth [8.513014699605499]
AccSeg-Net (AccSeg-Net) を用いて, 対象画像の分割ネットワークを訓練した。
CBCT, MRI, PET画像データに適用し, 従来法に比べ, セグメンテーション性能が優れていた。
論文 参考訳(メタデータ) (2021-07-12T14:54:04Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z) - Weak Supervision in Convolutional Neural Network for Semantic
Segmentation of Diffuse Lung Diseases Using Partially Annotated Dataset [2.239917051803692]
5種類の肺疾患に対するセマンティックセグメンテーションモデルを構築した。
この研究で考慮されたDLDは、凝縮、ガラス不透明度、ハニカム、気腫、正常である。
部分的に注釈付けされたデータセットを効果的に活用する新しい弱い監視手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T06:17:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。