論文の概要: Motion-Corrected Moving Average: Including Post-Hoc Temporal Information
for Improved Video Segmentation
- arxiv url: http://arxiv.org/abs/2403.03120v1
- Date: Tue, 5 Mar 2024 17:01:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 14:13:11.346814
- Title: Motion-Corrected Moving Average: Including Post-Hoc Temporal Information
for Improved Video Segmentation
- Title(参考訳): 運動補正移動平均値:映像分割改善のための時間情報を含む
- Authors: Robert Mendel (1), Tobias Rueckert (1), Dirk Wilhelm (2), Daniel
Rueckert (3, 4), Christoph Palm (1, 5) ((1) Regensburg Medical Image
Computing (ReMIC), Ostbayerische Technische Hochschule Regensburg (OTH
Regensburg), Regensburg, Germany, (2) Department of Surgery, Faculty of
Medicine, Klinikum rechts der Isar, Technical University of Munich, Munich,
Germany, (3) Artificial Intelligence in Healthcare and Medicine, Klinikum
rechts der Isar, Technical University of Munich, Munich, Germany, (4)
Department of Computing, Imperial College London, London, UK, (5) Regensburg
Center of Health Sciences and Technology (RCHST), OTH Regensburg, Regensburg,
Germany)
- Abstract要約: 本稿では,任意のセグメント化モデルに時間情報を含める手法を提案する。
我々は、現在の予測と過去の予測の間の指数的な移動平均を洗練する。
我々は2つの公開セグメンテーションデータセットと2つの独自の内視鏡データセットに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-time computational speed and a high degree of precision are requirements
for computer-assisted interventions. Applying a segmentation network to a
medical video processing task can introduce significant inter-frame prediction
noise. Existing approaches can reduce inconsistencies by including temporal
information but often impose requirements on the architecture or dataset. This
paper proposes a method to include temporal information in any segmentation
model and, thus, a technique to improve video segmentation performance without
alterations during training or additional labeling. With Motion-Corrected
Moving Average, we refine the exponential moving average between the current
and previous predictions. Using optical flow to estimate the movement between
consecutive frames, we can shift the prior term in the moving-average
calculation to align with the geometry of the current frame. The optical flow
calculation does not require the output of the model and can therefore be
performed in parallel, leading to no significant runtime penalty for our
approach. We evaluate our approach on two publicly available segmentation
datasets and two proprietary endoscopic datasets and show improvements over a
baseline approach.
- Abstract(参考訳): リアルタイム計算速度と高精度は、コンピュータ支援による介入の要件である。
セグメンテーションネットワークを医療ビデオ処理タスクに適用することは、フレーム間予測ノイズを著しく導入することができる。
既存のアプローチは、時間的情報を含めることで矛盾を減らすことができるが、しばしばアーキテクチャやデータセットに要求を課す。
本稿では,任意のセグメンテーションモデルに時間情報を含める手法を提案し,トレーニング中や追加ラベル付け時の変更を伴わずに映像セグメンテーション性能を向上させる手法を提案する。
運動補正移動平均値を用いて、現在の予測と過去の予測の間の指数移動平均を改良する。
連続するフレーム間の移動を光学フローで推定することで、移動平均計算における先行項を現在のフレームの形状に合わせるようにシフトすることができる。
光フロー計算はモデルの出力を必要としないため、並列に実行できるため、我々のアプローチにとって重要な実行時ペナルティは得られない。
2つの公開セグメンテーションデータセットと2つのプロプライエタリな内視鏡データセットのアプローチを評価し,ベースラインアプローチよりも改善を示す。
関連論文リスト
- Event-based Video Frame Interpolation with Edge Guided Motion Refinement [28.331148083668857]
本稿では,イベント信号のエッジ特徴を効果的に活用するためのエンドツーエンドE-VFI学習手法を提案する。
提案手法にはエッジガイド・アテンテーティブ(EGA)モジュールが組み込まれており,アテンテーティブアグリゲーションによって推定された映像の動きを補正する。
合成データと実データの両方を用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-04-28T12:13:34Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Motion-inductive Self-supervised Object Discovery in Videos [99.35664705038728]
本稿では,連続的なRGBフレームの処理モデルを提案し,層状表現を用いて任意のフレーム間の光の流れを推定する。
3つの公開ビデオセグメンテーションデータセットにおいて,従来の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-01T08:38:28Z) - Meta-Interpolation: Time-Arbitrary Frame Interpolation via Dual
Meta-Learning [65.85319901760478]
我々はメタ学習の助けを借りて、適応的に生成された畳み込みカーネルで異なる時間ステップを統一的に処理することを検討する。
我々は、コンテキスト情報と光フローのガイダンスを用いて、中間フレームを合成するデュアルメタ学習フレームフレームワークを開発した。
論文 参考訳(メタデータ) (2022-07-27T17:36:23Z) - EM-driven unsupervised learning for efficient motion segmentation [3.5232234532568376]
本稿では,光学的流れからの動作分割のためのCNNに基づく完全教師なし手法を提案する。
本研究では,移動分割ニューラルネットワークの損失関数とトレーニング手順を活用するために,期待最大化(EM)フレームワークを利用する。
提案手法は, 教師なし手法よりも優れ, 効率的である。
論文 参考訳(メタデータ) (2022-01-06T14:35:45Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z) - Learning Motion Flows for Semi-supervised Instrument Segmentation from
Robotic Surgical Video [64.44583693846751]
本研究は,スパースアノテーションを用いたロボット手術ビデオから半教師楽器のセグメンテーションについて検討する。
生成されたデータペアを利用することで、我々のフレームワークはトレーニングシーケンスの時間的一貫性を回復し、強化することができます。
その結果,本手法は最先端の半教師あり手法よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-06T02:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。