論文の概要: Mutual-GAN: Towards Unsupervised Cross-Weather Adaptation with Mutual
Information Constraint
- arxiv url: http://arxiv.org/abs/2106.16000v1
- Date: Wed, 30 Jun 2021 11:44:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 12:39:10.551224
- Title: Mutual-GAN: Towards Unsupervised Cross-Weather Adaptation with Mutual
Information Constraint
- Title(参考訳): 相互GAN:相互情報制約による教師なしクロスウェザー適応を目指して
- Authors: Jiawei Chen and Yuexiang Li and Kai Ma and Yefeng Zheng
- Abstract要約: 畳み込みニューラルネットワーク(CNN)はセマンティックセグメンテーション(セマンティックセグメンテーション)の成功を証明している。
現実的な応用では、屋外の天気と照明は、例えば、曇りや夜間のように変更可能であり、CNNの日中のデータでのみ訓練されたセマンティックセマンティックセマンティクスの精度が著しく低下する。
本研究では,悪天候下で撮影された映像に対して,日中トレーニングニューラルネットワークを適用した場合の精度低下を軽減するために,新たな生成逆ネットワーク(Mutual-GAN)を提案する。
- 参考スコア(独自算出の注目度): 32.67453558911618
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Convolutional neural network (CNN) have proven its success for semantic
segmentation, which is a core task of emerging industrial applications such as
autonomous driving. However, most progress in semantic segmentation of urban
scenes is reported on standard scenarios, i.e., daytime scenes with favorable
illumination conditions. In practical applications, the outdoor weather and
illumination are changeable, e.g., cloudy and nighttime, which results in a
significant drop of semantic segmentation accuracy of CNN only trained with
daytime data. In this paper, we propose a novel generative adversarial network
(namely Mutual-GAN) to alleviate the accuracy decline when daytime-trained
neural network is applied to videos captured under adverse weather conditions.
The proposed Mutual-GAN adopts mutual information constraint to preserve
image-objects during cross-weather adaptation, which is an unsolved problem for
most unsupervised image-to-image translation approaches (e.g., CycleGAN). The
proposed Mutual-GAN is evaluated on two publicly available driving video
datasets (i.e., CamVid and SYNTHIA). The experimental results demonstrate that
our Mutual-GAN can yield visually plausible translated images and significantly
improve the semantic segmentation accuracy of daytime-trained deep learning
network while processing videos under challenging weathers.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)はセマンティックセグメンテーション(セマンティックセグメンテーション)の成功を証明している。
しかし、都市景観のセマンティックセグメンテーションのほとんどの進展は、標準的なシナリオ、すなわち、照明条件のよい昼間シーンで報告されている。
実用的な用途では、例えば曇りや夜間など、屋外の天気や照明は変更可能であり、昼間のデータでしか訓練されていないcnnの意味セグメンテーション精度が大幅に低下する。
本稿では、日中学習したニューラルネットワークを悪天候下の映像に適用した場合の精度低下を緩和する新しい生成型逆ネットワーク(すなわち相互gan)を提案する。
提案したMutual-GANは、クロスウェザー適応中に画像オブジェクトを保存するために相互情報制約を採用しており、これは教師なし画像-画像変換アプローチ(例えば、CycleGAN)において未解決の問題である。
提案したMutual-GANは2つの公開ドライビングビデオデータセット(CamVidとSynTHIA)で評価される。
実験の結果,Mutual-GANは視覚的に可視な変換画像を生成でき,日中学習深層学習ネットワークのセマンティックセマンティックセマンティックセマンティクス精度を大幅に向上させることができることがわかった。
関連論文リスト
- SIGMA:Sinkhorn-Guided Masked Video Modeling [69.31715194419091]
SIGMA (Sinkhorn-guided Masked Video Modelling) は、新しいビデオ事前学習法である。
時空管の特徴を,限られた数の学習可能なクラスタに均等に分散する。
10個のデータセットによる実験結果から,より高性能で時間的,堅牢な映像表現を学習する上で,SIGMAの有効性が検証された。
論文 参考訳(メタデータ) (2024-07-22T08:04:09Z) - Genuine Knowledge from Practice: Diffusion Test-Time Adaptation for
Video Adverse Weather Removal [53.15046196592023]
ビデオの悪天候除去におけるテスト時間適応について紹介する。
本稿では,テスト時間適応を反復拡散逆プロセスに統合する最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T14:21:30Z) - Transform-Equivariant Consistency Learning for Temporal Sentence
Grounding [66.10949751429781]
ビデオ毎により差別的な表現を学習するために,新しい同変一貫性規則学習フレームワークを導入する。
私たちのモチベーションは、クエリ誘導アクティビティの時間的境界を一貫して予測することにある。
特に,ビデオの完全性と滑らか性を高めるために,自己教師付き一貫性損失モジュールを考案した。
論文 参考訳(メタデータ) (2023-05-06T19:29:28Z) - Unsupervised Video Domain Adaptation for Action Recognition: A
Disentanglement Perspective [37.45565756522847]
我々は2つの潜在要因からドメイン間ビデオを生成することを検討する。
TranSVAEフレームワークはそのような世代をモデル化するために開発される。
UCF-HMDB、Jester、Epic-Kitchensデータセットの実験は、TranSVAEの有効性と優位性を検証する。
論文 参考訳(メタデータ) (2022-08-15T17:59:31Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - Adaptive graph convolutional networks for weakly supervised anomaly
detection in videos [42.3118758940767]
本稿では,映像セグメント間のコンテキスト関係をモデル化するために,弱教師付き適応グラフ畳み込みネットワーク(WAGCN)を提案する。
各セグメントの異常確率スコアを生成する際に、他のビデオセグメントが現在のセグメントに与える影響を十分に検討する。
論文 参考訳(メタデータ) (2022-02-14T06:31:34Z) - AuxAdapt: Stable and Efficient Test-Time Adaptation for Temporally
Consistent Video Semantic Segmentation [81.87943324048756]
ビデオセグメンテーションでは、フレーム間で時間的に一貫した結果を生成することは、フレームワイドの精度を達成するのと同じくらい重要である。
既存の方法は、時間的整合性を達成するために、テストデータによる光フローの正則化や微調整に依存している。
本稿では、ほとんどのニューラルネットワークモデルの時間的一貫性を改善するために、効率的で直感的で教師なしのオンライン適応手法であるAuxAdaptを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:07:41Z) - Let There be Light: Improved Traffic Surveillance via Detail Preserving
Night-to-Day Transfer [19.33490492872067]
画像翻訳手法を用いて,物体検出時の精度低下を悪条件に緩和する枠組みを提案する。
本稿では,GAN(Generative Adversarial Networks)による詳細な汚職を緩和するために,Kernel Prediction Network (KPN) を用いた夜間・昼間の画像翻訳の改良手法を提案する。
論文 参考訳(メタデータ) (2021-05-11T13:18:50Z) - Semantic Segmentation of Medium-Resolution Satellite Imagery using
Conditional Generative Adversarial Networks [3.4797121357690153]
本稿では,高解像度衛星画像に対する画像と画像の変換手法として,CGAN(Conditional Generative Adversarial Networks)を提案する。
CGANモデルは、見当たらない不均衡なテストデータセットにおいて、同様の複雑性のCNNモデルよりもかなりのマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-05T18:18:45Z) - A Prospective Study on Sequence-Driven Temporal Sampling and Ego-Motion
Compensation for Action Recognition in the EPIC-Kitchens Dataset [68.8204255655161]
行動認識はコンピュータビジョンにおける最上位の研究分野の一つである。
エゴモーション記録シーケンスは重要な関連性を持つようになった。
提案手法は,このエゴモーションやカメラの動きを推定して対処することを目的としている。
論文 参考訳(メタデータ) (2020-08-26T14:44:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。