論文の概要: Robust Semantic Segmentation in Adverse Weather Conditions by means of
Fast Video-Sequence Segmentation
- arxiv url: http://arxiv.org/abs/2007.00290v1
- Date: Wed, 1 Jul 2020 07:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 22:53:16.037822
- Title: Robust Semantic Segmentation in Adverse Weather Conditions by means of
Fast Video-Sequence Segmentation
- Title(参考訳): 高速ビデオシーケンスセグメンテーションによる逆気象条件下でのロバストなセマンティックセグメンテーション
- Authors: Andreas Pfeuffer and Klaus Dietmayer
- Abstract要約: ビデオセグメンテーションアプローチは、現在の画像情報に加えて、以前のビデオフレームの時間情報をキャプチャする。
しばしばリカレントニューラルネットワークに基づくビデオセグメンテーションアプローチは、もはやリアルタイムアプリケーションには適用できない。
この作業では、LSTM-ICNetは、ネットワークの繰り返しユニットを変更して、再びリアルタイムに実行できるようにする。
- 参考スコア(独自算出の注目度): 12.788867618508688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer vision tasks such as semantic segmentation perform very well in good
weather conditions, but if the weather turns bad, they have problems to achieve
this performance in these conditions. One possibility to obtain more robust and
reliable results in adverse weather conditions is to use video-segmentation
approaches instead of commonly used single-image segmentation methods.
Video-segmentation approaches capture temporal information of the previous
video-frames in addition to current image information, and hence, they are more
robust against disturbances, especially if they occur in only a few frames of
the video-sequence. However, video-segmentation approaches, which are often
based on recurrent neural networks, cannot be applied in real-time applications
anymore, since their recurrent structures in the network are computational
expensive. For instance, the inference time of the LSTM-ICNet, in which
recurrent units are placed at proper positions in the single-segmentation
approach ICNet, increases up to 61 percent compared to the basic ICNet. Hence,
in this work, the LSTM-ICNet is sped up by modifying the recurrent units of the
network so that it becomes real-time capable again. Experiments on different
datasets and various weather conditions show that the inference time can be
decreased by about 23 percent by these modifications, while they achieve
similar performance than the LSTM-ICNet and outperform the single-segmentation
approach enormously in adverse weather conditions.
- Abstract(参考訳): セマンティックセグメンテーションのようなコンピュータビジョンタスクは、良好な天候条件下で非常によく機能するが、天候が悪くなると、これらの条件下でこの性能を達成するのに問題がある。
悪天候条件下でより堅牢で信頼性の高い結果を得る可能性の1つは、一般的に使用される単一画像分割法の代わりにビデオセグメンテーションアプローチを使用することである。
ビデオセグメンテーションアプローチは、現在の画像情報に加えて、前のビデオフレームの時間的情報をキャプチャするので、特にビデオシーケンスのほんの数フレームで発生する場合、外乱に対してより堅牢である。
しかし、再帰ニューラルネットワークに基づくビデオセグメンテーションアプローチは、ネットワーク内の再帰構造が計算コストが高いため、リアルタイムアプリケーションではもはや適用できない。
例えば、シングルセグメンテーションアプローチICNetにおいて、リカレントユニットを適切な位置に配置するLSTM-ICNetの推論時間は、基本的なICNetに比べて最大61%増加する。
これにより、LSTM-ICNetは、ネットワークの繰り返しユニットを変更して、再びリアルタイムに実行できるようにする。
異なるデータセットと様々な気象条件の実験では、これらの修正により推論時間が約23%減少し、LSTM-ICNetと同等の性能を示し、悪天候下ではシングルセグメンテーションのアプローチを大きく上回っている。
関連論文リスト
- Genuine Knowledge from Practice: Diffusion Test-Time Adaptation for
Video Adverse Weather Removal [53.15046196592023]
ビデオの悪天候除去におけるテスト時間適応について紹介する。
本稿では,テスト時間適応を反復拡散逆プロセスに統合する最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T14:21:30Z) - Distortion-Aware Network Pruning and Feature Reuse for Real-time Video
Segmentation [49.17930380106643]
本稿では,リアルタイム視覚タスクのスキップ接続によるアーキテクチャの高速化を目的とした新しいフレームワークを提案する。
具体的には、各フレームの到着時に、前のフレームから特徴を変換し、特定の空間的ビンで再利用する。
次に、現在のフレームの領域におけるバックボーンネットワークの部分計算を行い、現在のフレームと前のフレームの時間差をキャプチャする。
論文 参考訳(メタデータ) (2022-06-20T07:20:02Z) - AuxAdapt: Stable and Efficient Test-Time Adaptation for Temporally
Consistent Video Semantic Segmentation [81.87943324048756]
ビデオセグメンテーションでは、フレーム間で時間的に一貫した結果を生成することは、フレームワイドの精度を達成するのと同じくらい重要である。
既存の方法は、時間的整合性を達成するために、テストデータによる光フローの正則化や微調整に依存している。
本稿では、ほとんどのニューラルネットワークモデルの時間的一貫性を改善するために、効率的で直感的で教師なしのオンライン適応手法であるAuxAdaptを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:07:41Z) - RiWNet: A moving object instance segmentation Network being Robust in
adverse Weather conditions [13.272209740926156]
我々は、ネットワークの構造設計を通じて、気象干渉に対するレジリエンスを改善する新しい可能性に焦点を当てる。
本稿では,プログレッシブなトップダウンインタラクションとアテンションリファインメントモジュールを備えた,RiWFPNと呼ばれる新しいFPN構造を提案する。
我々は,映像中の時間情報をキャプチャして動作情報を学習するためにSOLOV2を拡張し,RiWNetと呼ばれるRiWFPNを用いた移動オブジェクトインスタンスセグメンテーションネットワークを提案する。
論文 参考訳(メタデータ) (2021-09-04T08:55:36Z) - Mutual-GAN: Towards Unsupervised Cross-Weather Adaptation with Mutual
Information Constraint [32.67453558911618]
畳み込みニューラルネットワーク(CNN)はセマンティックセグメンテーション(セマンティックセグメンテーション)の成功を証明している。
現実的な応用では、屋外の天気と照明は、例えば、曇りや夜間のように変更可能であり、CNNの日中のデータでのみ訓練されたセマンティックセマンティックセマンティクスの精度が著しく低下する。
本研究では,悪天候下で撮影された映像に対して,日中トレーニングニューラルネットワークを適用した場合の精度低下を軽減するために,新たな生成逆ネットワーク(Mutual-GAN)を提案する。
論文 参考訳(メタデータ) (2021-06-30T11:44:22Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - Temporal Modulation Network for Controllable Space-Time Video
Super-Resolution [66.06549492893947]
宇宙時間のビデオ超解像度は、低解像度と低フレームレートのビデオの空間的および時間的解像度を高めることを目指しています。
変形性畳み込み法は、有望なSTVSR性能を達成したが、トレーニング段階で事前に定義された中間フレームのみを推測することができた。
本稿では,任意の中間フレームを高精度な高分解能再構成で補間する時間変調ネットワーク(tmnet)を提案する。
論文 参考訳(メタデータ) (2021-04-21T17:10:53Z) - Intrinsic Temporal Regularization for High-resolution Human Video
Synthesis [59.54483950973432]
時間整合性は、画像処理パイプラインをビデオドメインに拡張する上で重要である。
フレームジェネレーターを介して本質的信頼度マップを推定し,運動推定を調節する,本質的な時間正規化方式を提案する。
我々は、本質的な時間的規制をシングルイメージジェネレータに適用し、強力な「Internet」が512Times512$の人間のアクションビデオを生成します。
論文 参考訳(メタデータ) (2020-12-11T05:29:45Z) - Noisy-LSTM: Improving Temporal Awareness for Video Semantic Segmentation [29.00635219317848]
本稿では,エンドツーエンドで学習可能なNoisy-LSTMという新しいモデルを提案する。
また,ビデオシーケンスのフレームをノイズに置き換える,シンプルで効果的なトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:08:15Z) - iSeeBetter: Spatio-temporal video super-resolution using recurrent
generative back-projection networks [0.0]
ビデオ超解像(VSR)に対する新しいGANに基づく構造時間的アプローチiSeeBetterを提案する。
iSeeBetterは、リカレントバックプロジェクションネットワークをジェネレータとして使用して、現在のフレームと隣接するフレームから時空間情報を抽出する。
以上の結果から,iSeeBetterはVSRの忠実度に優れ,最先端の性能に勝ることを示した。
論文 参考訳(メタデータ) (2020-06-13T01:36:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。