論文の概要: Unsupervised Region-Growing Network for Object Segmentation in
Atmospheric Turbulence
- arxiv url: http://arxiv.org/abs/2311.03572v1
- Date: Mon, 6 Nov 2023 22:17:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 17:41:05.772702
- Title: Unsupervised Region-Growing Network for Object Segmentation in
Atmospheric Turbulence
- Title(参考訳): 大気乱流中の物体セグメンテーションのための教師なし領域成長ネットワーク
- Authors: Dehao Qin, Ripon Saha, Suren Jayasuriya, Jinwei Ye and Nianyi Li
- Abstract要約: 本研究では,大気乱流の影響を受けやすい2段階の非教師対象セグメンテーションネットワークを提案する。
第1段階では、乱流歪み画像列からの平均光フローを利用して、各移動物体の予備マスクを作成する。
我々は、手動でアノテートされた地上の真理マスクを備えた、乱流の影響のあるビデオの最初の移動物体セグメンテーションデータセットをリリースする。
- 参考スコア(独自算出の注目度): 11.62754560134596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a two-stage unsupervised foreground object
segmentation network tailored for dynamic scenes affected by atmospheric
turbulence. In the first stage, we utilize averaged optical flow from
turbulence-distorted image sequences to feed a novel region-growing algorithm,
crafting preliminary masks for each moving object in the video. In the second
stage, we employ a U-Net architecture with consistency and grouping losses to
further refine these masks optimizing their spatio-temporal alignment. Our
approach does not require labeled training data and works across varied
turbulence strengths for long-range video. Furthermore, we release the first
moving object segmentation dataset of turbulence-affected videos, complete with
manually annotated ground truth masks. Our method, evaluated on this new
dataset, demonstrates superior segmentation accuracy and robustness as compared
to current state-of-the-art unsupervised methods.
- Abstract(参考訳): 本稿では,大気乱流の影響を受ける動的シーン用に調整された2段階の教師なしフォアグラウンドオブジェクトセグメンテーションネットワークを提案する。
第1段階では、乱流歪み画像列からの平均光フローを利用して、新しい領域成長アルゴリズムを供給し、動画内の各移動物体の予備マスクを作成する。
第2段階では、一貫性と損失のグループ化を備えたu-netアーキテクチャを採用し、それらのマスクを時空間的アライメントを最適化する。
我々の手法はラベル付きトレーニングデータを必要としないし、長距離ビデオの様々な乱流強度で機能する。
さらに,手動でアノテートした地中真実マスクを用いて,乱流の影響のあるビデオの最初の移動物体分割データセットをリリースする。
本手法は,現在の教師なし手法と比較して,セグメント化精度とロバスト性に優れることを示す。
関連論文リスト
- Appearance-based Refinement for Object-Centric Motion Segmentation [95.80420062679104]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では, 正確な流量予測マスクを模範として, 簡単な選択機構を用いる。
パフォーマンスは、DAVIS、YouTubeVOS、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - Motion-inductive Self-supervised Object Discovery in Videos [99.35664705038728]
本稿では,連続的なRGBフレームの処理モデルを提案し,層状表現を用いて任意のフレーム間の光の流れを推定する。
3つの公開ビデオセグメンテーションデータセットにおいて,従来の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-01T08:38:28Z) - Video Mask Transfiner for High-Quality Video Instance Segmentation [102.50936366583106]
Video Mask Transfiner (VMT) は、高効率なビデオトランス構造により、微細な高解像度機能を利用することができる。
当社のVMTアーキテクチャに基づいて,反復的トレーニングと自己補正による自動アノテーション改善アプローチを設計する。
我々はVMTとHQ-YTVISの最新の最先端手法、Youtube-VIS、OVIS、BDD100K MOTSを比較した。
論文 参考訳(メタデータ) (2022-07-28T11:13:37Z) - SatMAE: Pre-training Transformers for Temporal and Multi-Spectral
Satellite Imagery [74.82821342249039]
Masked Autoencoder(MAE)に基づく時間・マルチスペクトル衛星画像の事前学習フレームワークであるSatMAEについて述べる。
時間的情報を活用するために、時間にわたって画像パッチを個別にマスキングする時間的埋め込みを含む。
論文 参考訳(メタデータ) (2022-07-17T01:35:29Z) - FlowVOS: Weakly-Supervised Visual Warping for Detail-Preserving and
Temporally Consistent Single-Shot Video Object Segmentation [4.3171602814387136]
本稿では,VOSデータから流れ場を学習する前景型ビジュアルワープ手法を提案する。
フローモジュールをトレーニングし、2つの弱い教師付き損失を用いてフレーム間の詳細な動きをキャプチャする。
提案手法は,高精細かつ時間的整合性を持ったセグメンテーションを生成する。
論文 参考訳(メタデータ) (2021-11-20T16:17:10Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Spatiotemporal Graph Neural Network based Mask Reconstruction for Video
Object Segmentation [70.97625552643493]
本稿では,クラス非依存オブジェクトを半教師あり設定でセグメント化するタスクについて述べる。
提案手法のすべてを利用して局所的なコンテキストを捕捉する新しいグラフニューラルネットワーク(TG-Net)を提案する。
論文 参考訳(メタデータ) (2020-12-10T07:57:44Z) - Learning-based Tracking of Fast Moving Objects [8.8456602191903]
ビデオシーケンスのぼやけたストリークとして現れる高速移動物体の追跡は、標準トラッカーにとって難しい作業である。
本稿では,実世界の映像系列をほぼリアルタイムに追跡する最先端のディープラーニング手法を用いて,トラッキング・バイ・セグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2020-05-04T19:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。