論文の概要: Unsupervised Region-Growing Network for Object Segmentation in
Atmospheric Turbulence
- arxiv url: http://arxiv.org/abs/2311.03572v1
- Date: Mon, 6 Nov 2023 22:17:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 17:41:05.772702
- Title: Unsupervised Region-Growing Network for Object Segmentation in
Atmospheric Turbulence
- Title(参考訳): 大気乱流中の物体セグメンテーションのための教師なし領域成長ネットワーク
- Authors: Dehao Qin, Ripon Saha, Suren Jayasuriya, Jinwei Ye and Nianyi Li
- Abstract要約: 本研究では,大気乱流の影響を受けやすい2段階の非教師対象セグメンテーションネットワークを提案する。
第1段階では、乱流歪み画像列からの平均光フローを利用して、各移動物体の予備マスクを作成する。
我々は、手動でアノテートされた地上の真理マスクを備えた、乱流の影響のあるビデオの最初の移動物体セグメンテーションデータセットをリリースする。
- 参考スコア(独自算出の注目度): 11.62754560134596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a two-stage unsupervised foreground object
segmentation network tailored for dynamic scenes affected by atmospheric
turbulence. In the first stage, we utilize averaged optical flow from
turbulence-distorted image sequences to feed a novel region-growing algorithm,
crafting preliminary masks for each moving object in the video. In the second
stage, we employ a U-Net architecture with consistency and grouping losses to
further refine these masks optimizing their spatio-temporal alignment. Our
approach does not require labeled training data and works across varied
turbulence strengths for long-range video. Furthermore, we release the first
moving object segmentation dataset of turbulence-affected videos, complete with
manually annotated ground truth masks. Our method, evaluated on this new
dataset, demonstrates superior segmentation accuracy and robustness as compared
to current state-of-the-art unsupervised methods.
- Abstract(参考訳): 本稿では,大気乱流の影響を受ける動的シーン用に調整された2段階の教師なしフォアグラウンドオブジェクトセグメンテーションネットワークを提案する。
第1段階では、乱流歪み画像列からの平均光フローを利用して、新しい領域成長アルゴリズムを供給し、動画内の各移動物体の予備マスクを作成する。
第2段階では、一貫性と損失のグループ化を備えたu-netアーキテクチャを採用し、それらのマスクを時空間的アライメントを最適化する。
我々の手法はラベル付きトレーニングデータを必要としないし、長距離ビデオの様々な乱流強度で機能する。
さらに,手動でアノテートした地中真実マスクを用いて,乱流の影響のあるビデオの最初の移動物体分割データセットをリリースする。
本手法は,現在の教師なし手法と比較して,セグメント化精度とロバスト性に優れることを示す。
関連論文リスト
- Instance-Level Moving Object Segmentation from a Single Image with Events [84.12761042512452]
移動対象セグメンテーションは、複数の移動対象を含む動的なシーンを理解する上で重要な役割を果たす。
従来の手法では、物体の画素変位がカメラの動きや物体の動きによって引き起こされるかどうかを区別することが困難であった。
近年の進歩は、従来の画像の不適切な動作モデリング機能に対抗するために、新しいイベントカメラの動作感度を利用する。
補完的なテクスチャとモーションキューを統合した,最初のインスタンスレベルの移動オブジェクトセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:56:46Z) - PEMF-VVTO: Point-Enhanced Video Virtual Try-on via Mask-free Paradigm [20.422348105784025]
Video Virtual Try-onは、ソースパーソンビデオ内のセマンティックに整列した試着領域に衣料イメージを流用することを目的としている。
以前の手法では、インペイントマスクを利用して、元のビデオの原着を除去していた。
新たなPEMF-VVTO(PEMF-VVTO)を提案する。
論文 参考訳(メタデータ) (2024-12-04T04:24:15Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Towards Robust Video Object Segmentation with Adaptive Object
Calibration [18.094698623128146]
ビデオオブジェクトセグメンテーション(VOS)は、参照フレームの注釈付きオブジェクトマスクを与えられたビデオのすべてのターゲットフレームにおけるオブジェクトのセグメンテーションを目的としている。
本稿では,オブジェクト表現を適応的に構築し,オブジェクトマスクを校正して強靭性を実現する,新しいディープネットワークを提案する。
本モデルは,既存の出版作品の最先端性能を達成し,摂動に対する優れた堅牢性を示す。
論文 参考訳(メタデータ) (2022-07-02T17:51:29Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Occlusion-Aware Video Object Inpainting [72.38919601150175]
本稿では,映像における隠蔽物体の完全な形状と外観を復元する,隠蔽型映像オブジェクトの塗装について述べる。
我々の技術貢献であるVOINは、ビデオオブジェクト形状の完成と隠蔽テクスチャ生成を共同で行う。
より現実的な結果を得るために、VOINはT-PatchGANと新しい時間的YouTubeアテンションベースのマルチクラス識別器の両方を使用して最適化されている。
論文 参考訳(メタデータ) (2021-08-15T15:46:57Z) - Generating Masks from Boxes by Mining Spatio-Temporal Consistencies in
Videos [159.02703673838639]
フレーム毎のバウンディングボックスアノテーションからセグメンテーションマスクを生成する手法を動画で紹介します。
得られた正確なマスクを用いて、ビデオオブジェクトセグメンテーション(VOS)ネットワークの弱い教師付きトレーニングを行う。
追加データは、VOSとより困難なトラッキングドメインの両方で最先端の結果をもたらす大幅に優れた一般化パフォーマンスを提供します。
論文 参考訳(メタデータ) (2021-01-06T18:56:24Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。