論文の概要: A Systematic Investigation on Deep Learning-Based Omnidirectional Image and Video Super-Resolution
- arxiv url: http://arxiv.org/abs/2506.06710v1
- Date: Sat, 07 Jun 2025 08:24:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.445971
- Title: A Systematic Investigation on Deep Learning-Based Omnidirectional Image and Video Super-Resolution
- Title(参考訳): 深層学習に基づく全方位画像とビデオ超解像の体系的研究
- Authors: Qianqian Zhao, Chunle Guo, Tianyi Zhang, Junpei Zhang, Peiyang Jia, Tan Su, Wenjie Jiang, Chongyi Li,
- Abstract要約: 本稿では,全方位画像とビデオ超解像の最近の進歩を体系的に概観する。
新しいデータセットである360Instaを導入し、全方位画像とビデオをオーステンシャルに劣化させた。
提案したデータセットと公開データセットの両方において,既存手法の総合的質的,定量的評価を行う。
- 参考スコア(独自算出の注目度): 30.62413133817583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Omnidirectional image and video super-resolution is a crucial research topic in low-level vision, playing an essential role in virtual reality and augmented reality applications. Its goal is to reconstruct high-resolution images or video frames from low-resolution inputs, thereby enhancing detail preservation and enabling more accurate scene analysis and interpretation. In recent years, numerous innovative and effective approaches have been proposed, predominantly based on deep learning techniques, involving diverse network architectures, loss functions, projection strategies, and training datasets. This paper presents a systematic review of recent progress in omnidirectional image and video super-resolution, focusing on deep learning-based methods. Given that existing datasets predominantly rely on synthetic degradation and fall short in capturing real-world distortions, we introduce a new dataset, 360Insta, that comprises authentically degraded omnidirectional images and videos collected under diverse conditions, including varying lighting, motion, and exposure settings. This dataset addresses a critical gap in current omnidirectional benchmarks and enables more robust evaluation of the generalization capabilities of omnidirectional super-resolution methods. We conduct comprehensive qualitative and quantitative evaluations of existing methods on both public datasets and our proposed dataset. Furthermore, we provide a systematic overview of the current status of research and discuss promising directions for future exploration. All datasets, methods, and evaluation metrics introduced in this work are publicly available and will be regularly updated. Project page: https://github.com/nqian1/Survey-on-ODISR-and-ODVSR.
- Abstract(参考訳): 方位画像とビデオ超解像は、低レベルのビジョンにおいて重要な研究テーマであり、仮想現実および拡張現実アプリケーションにおいて重要な役割を担っている。
その目標は、低解像度の入力から高解像度の画像やビデオフレームを再構築し、ディテールの保存を強化し、より正確なシーン分析と解釈を可能にすることである。
近年,ネットワークアーキテクチャ,損失関数,プロジェクション戦略,データセットのトレーニングなど,多くの革新的かつ効果的なアプローチが提案されている。
本稿では,一方向画像とビデオ超解像の最近の進歩を,ディープラーニングに基づく手法を中心に体系的に概観する。
既存のデータセットは、実世界の歪みを捉えるのに合成的な劣化と不足に大きく依存しているため、様々な照明、動き、露出設定を含む様々な条件下で収集された全方位画像とビデオを含む新しいデータセットである360Instaを導入する。
このデータセットは、現在の全方位ベンチマークにおける重要なギャップに対処し、全方位超解法の一般化能力をより堅牢に評価することを可能にする。
提案したデータセットと公開データセットの両方において,既存手法の総合的質的,定量的評価を行う。
さらに,本研究の現状を体系的に概観するとともに,今後の探査に向けた将来的な方向性について論じる。
この作業で導入されたデータセット、メソッド、評価メトリクスはすべて公開されており、定期的に更新される。
プロジェクトページ:https://github.com/nqian1/Survey-on-ODISR-and-ODVSR。
関連論文リスト
- IDArb: Intrinsic Decomposition for Arbitrary Number of Input Views and Illuminations [64.07859467542664]
画像から幾何学的および物質的情報をキャプチャすることは、コンピュータビジョンとグラフィックスの基本的な課題である。
従来の最適化に基づく手法では、密集した多視点入力から幾何学、材料特性、環境照明を再構築するために数時間の計算時間を必要とすることが多い。
IDArbは、様々な照明条件下で、任意の画像に対して本質的な分解を行うために設計された拡散モデルである。
論文 参考訳(メタデータ) (2024-12-16T18:52:56Z) - A Survey on All-in-One Image Restoration: Taxonomy, Evaluation and Future Trends [67.43992456058541]
画像復元(IR)とは、ノイズ、ぼかし、気象効果などの劣化を除去しながら、画像の視覚的品質を改善する過程である。
従来のIR手法は、一般的に特定の種類の劣化をターゲットとしており、複雑な歪みを伴う現実のシナリオにおいて、その効果を制限している。
オールインワン画像復元(AiOIR)パラダイムが登場し、複数の劣化タイプに順応的に対処する統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2024-10-19T11:11:09Z) - Exposing AI-generated Videos: A Benchmark Dataset and a Local-and-Global Temporal Defect Based Detection Method [31.763312726582217]
生成モデルは、セキュリティ問題を引き起こす現実的なビデオの作成において、大きな進歩を遂げた。
本稿では,先進的な拡散型ビデオ生成アルゴリズムを用いて,様々なセマンティックな内容の映像データセットを構築する。
現在のAI生成ビデオの局所的およびグローバル的時間的欠陥を分析して、偽ビデオを公開するための新たな検出フレームワークを構築する。
論文 参考訳(メタデータ) (2024-05-07T09:00:09Z) - A Survey on Super Resolution for video Enhancement Using GAN [0.0]
Generative Adversarial Networksのようなディープラーニングアルゴリズムを用いた超高解像度画像とビデオの最近の発展について紹介する。
低解像度ビデオの視覚的明快さと品質の向上を目指す進歩は、監視技術から医用画像まで、さまざまな分野で大きな可能性を秘めている。
このコレクションは、ジェネレーティブ・アドバイサル・ネットワークの広い分野に展開し、その原則、トレーニング・アプローチ、幅広い領域にわたるアプリケーションについて探求している。
論文 参考訳(メタデータ) (2023-12-27T08:41:38Z) - Lighting the Darkness in the Deep Learning Era [118.35081853500411]
低照度画像強調(LLIE)は、照明の弱い環境で撮影された画像の知覚や解釈性を改善することを目的としている。
この分野における最近の進歩は、ディープラーニングベースのソリューションが支配的です。
アルゴリズム分類から未解決の未解決問題まで,さまざまな側面をカバーする包括的な調査を行う。
論文 参考訳(メタデータ) (2021-04-21T19:12:19Z) - Video Summarization Using Deep Neural Networks: A Survey [72.98424352264904]
ビデオ要約技術は、ビデオコンテンツの最も有益な部分を選択して、簡潔で完全なシノプシスを作成することを目指しています。
本研究は,この領域における最近の進歩に着目し,既存の深層学習に基づく総括的映像要約手法の包括的調査を行う。
論文 参考訳(メタデータ) (2021-01-15T11:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。