論文の概要: Combining Contrastive and Supervised Learning for Video Super-Resolution
Detection
- arxiv url: http://arxiv.org/abs/2205.10406v1
- Date: Fri, 20 May 2022 18:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 18:21:08.281006
- Title: Combining Contrastive and Supervised Learning for Video Super-Resolution
Detection
- Title(参考訳): ビデオ超解像検出のためのコントラストと教師付き学習の組み合わせ
- Authors: Viacheslav Meshchaninov, Ivan Molodetskikh, Dmitriy Vatolin
- Abstract要約: コントラストとクロスエントロピーの損失を用いた視覚表現の学習に基づく新しいアップスケール分解能検出法を提案する。
本手法は,圧縮ビデオにおいてもアップスケーリングを効果的に検出し,最先端の代替品よりも優れる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Upscaled video detection is a helpful tool in multimedia forensics, but it is
a challenging task that involves various upscaling and compression algorithms.
There are many resolution-enhancement methods, including interpolation and
deep-learning-based super-resolution, and they leave unique traces. In this
work, we propose a new upscaled-resolution-detection method based on learning
of visual representations using contrastive and cross-entropy losses. To
explain how the method detects videos, we systematically review the major
components of our framework - in particular, we show that most
data-augmentation approaches hinder the learning of the method. Through
extensive experiments on various datasets, we demonstrate that our method
effectively detects upscaling even in compressed videos and outperforms the
state-of-the-art alternatives. The code and models are publicly available at
https://github.com/msu-video-group/SRDM
- Abstract(参考訳): アップスケールビデオ検出はマルチメディア法医学において有用なツールであるが、様々なアップスケールおよび圧縮アルゴリズムを必要とする課題である。
補間やディープラーニングに基づく超解像など、多くの解像度向上手法があり、ユニークな痕跡を残している。
本研究では,コントラストとクロスエントロピーの損失を用いた視覚表現の学習に基づく,新しい高分解能検出法を提案する。
本手法がビデオの検出方法を説明するために,本フレームワークの主要なコンポーネントを体系的に検証し,特に,ほとんどのデータ拡張アプローチが本手法の学習を妨げることを示す。
様々なデータセットに関する広範囲な実験を通じて,圧縮ビデオにおいても効果的にスケールアップを検知し,最先端の代替手段よりも優れていることを示す。
コードとモデルはhttps://github.com/msu-video-group/SRDMで公開されている。
関連論文リスト
- AVTENet: Audio-Visual Transformer-based Ensemble Network Exploiting
Multiple Experts for Video Deepfake Detection [53.448283629898214]
近年の超現実的なディープフェイクビデオの普及は、オーディオと視覚の偽造の脅威に注意を向けている。
AI生成のフェイクビデオの検出に関するこれまでのほとんどの研究は、視覚的モダリティまたはオーディオ的モダリティのみを使用していた。
音響操作と視覚操作の両方を考慮したAVTENet(Audio-Visual Transformer-based Ensemble Network)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T19:01:26Z) - UVL2: A Unified Framework for Video Tampering Localization [0.0]
悪意のあるビデオの改ざんは、世間の誤解、財産の喪失、法的な論争につながる可能性がある。
本稿では,映像の塗布とスプライシングの検知性能を大幅に向上させる,効果的なビデオ改ざん局面ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-28T03:13:09Z) - Video Segmentation Learning Using Cascade Residual Convolutional Neural
Network [0.0]
本研究では,残差情報を前景検出学習プロセスに組み込んだ新しい深層学習ビデオセグメンテーション手法を提案する。
Change Detection 2014とPetrobrasのプライベートデータセットであるPetrobrasROUTESで実施された実験は、提案手法の有効性を支持している。
論文 参考訳(メタデータ) (2022-12-20T16:56:54Z) - Weakly Supervised Two-Stage Training Scheme for Deep Video Fight
Detection Model [0.0]
ビデオにおけるファイト検出は、今日の監視システムとストリーミングメディアの普及にともなう、新たなディープラーニングアプリケーションである。
これまでの研究は、この問題に対処するための行動認識技術に大きく依存していた。
本研究では,動作認識特徴抽出器と異常スコア生成器の合成として,戦闘検出モデルを設計する。
論文 参考訳(メタデータ) (2022-09-23T08:29:16Z) - Deep Video Prior for Video Consistency and Propagation [58.250209011891904]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
提案手法は,大規模なデータセットではなく,オリジナルビデオとプロセッシングビデオのペアでのみ訓練される。
我々は、Deep Video Priorでビデオ上で畳み込みニューラルネットワークをトレーニングすることで、時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-27T16:38:52Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Ada-VSR: Adaptive Video Super-Resolution with Meta-Learning [56.676110454594344]
VideoSuperResolution(Ada-SR)は、メタトランスファー学習と内部学習を通じて、それぞれ外部および内部情報を使用する。
提案手法を用いてトレーニングしたモデルでは,若干の勾配更新しか行わず,特定の映像条件に迅速に適応できるため,推論時間を大幅に短縮できる。
論文 参考訳(メタデータ) (2021-08-05T19:59:26Z) - Video Super-Resolution with Long-Term Self-Exemplars [38.81851816697984]
本稿では,長期的クロススケールアグリゲーションを用いたビデオ超解像法を提案する。
我々のモデルは、類似したパッチから派生した機能を融合するマルチ参照アライメントモジュールも構成している。
提案手法を評価するため,収集したCarCamデータセットとオープンデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-06-24T06:07:13Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Semi-Supervised Action Recognition with Temporal Contrastive Learning [50.08957096801457]
2つの異なる速度でラベル付きビデオを用いて2経路の時間的コントラストモデルを学習する。
我々は最先端の半教師付き画像認識手法の映像拡張性能を著しく向上させた。
論文 参考訳(メタデータ) (2021-02-04T17:28:35Z) - Video Anomaly Detection Using Pre-Trained Deep Convolutional Neural Nets
and Context Mining [2.0646127669654835]
本稿では,事前学習した畳み込みニューラルネットモデルを用いて特徴抽出とコンテキストマイニングを行う方法について述べる。
我々は,高レベルの特徴から文脈特性を導出し,ビデオ異常検出法の性能をさらに向上させる。
論文 参考訳(メタデータ) (2020-10-06T00:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。