論文の概要: Perceptually Optimized Super Resolution
- arxiv url: http://arxiv.org/abs/2411.17513v1
- Date: Tue, 26 Nov 2024 15:24:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:51.1494
- Title: Perceptually Optimized Super Resolution
- Title(参考訳): 知覚に最適化された超解像
- Authors: Volodymyr Karpenko, Taimoor Tariq, Jorge Condor, Piotr Didyk,
- Abstract要約: 超高解像度技術における視覚的品質と効率を制御するために,知覚にインスパイアされ,アーキテクチャに依存しない手法を提案する。
コアは知覚モデルであり、画像の詳細に対する人間の感度に応じて動的に超解像法を導く。
本稿では,ネットワーク分岐とネットワーク複雑性の低減を併用して提案手法の適用を実証し,可視品質損失を伴わない超解像法の計算効率の向上を図った。
- 参考スコア(独自算出の注目度): 7.728090438152828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern deep-learning based super-resolution techniques process images and videos independently of the underlying content and viewing conditions. However, the sensitivity of the human visual system to image details changes depending on the underlying content characteristics, such as spatial frequency, luminance, color, contrast, or motion. This observation hints that computational resources spent on up-sampling visual content may be wasted whenever a viewer cannot resolve the results. Motivated by this observation, we propose a perceptually inspired and architecture-agnostic approach for controlling the visual quality and efficiency of super-resolution techniques. The core is a perceptual model that dynamically guides super-resolution methods according to the human's sensitivity to image details. Our technique leverages the limitations of the human visual system to improve the efficiency of super-resolution techniques by focusing computational resources on perceptually important regions; judged on the basis of factors such as adapting luminance, contrast, spatial frequency, motion, and viewing conditions. We demonstrate the application of our proposed model in combination with network branching, and network complexity reduction to improve the computational efficiency of super-resolution methods without visible quality loss. Quantitative and qualitative evaluations, including user studies, demonstrate the effectiveness of our approach in reducing FLOPS by factors of 2$\mathbf{x}$ and greater, without sacrificing perceived quality.
- Abstract(参考訳): 最新のディープラーニングベースの超解像度技術は、基礎となるコンテンツや視聴条件とは無関係に、画像やビデオを処理する。
しかし、画像の詳細に対する人間の視覚システムの感度は、空間周波数、輝度、色、コントラスト、動きなどの基本的な内容特性によって変化する。
この観察は、ビューアが結果を解決できない場合、アップサンプリングされたビジュアルコンテンツに費やした計算資源は無駄になる可能性があることを示唆している。
本研究の目的は,超高解像度技術における視覚的品質と効率を制御するための知覚的かつアーキテクチャに依存しないアプローチを提案することである。
コアは知覚モデルであり、画像の詳細に対する人間の感度に応じて動的に超解像法を導く。
本手法は、人間の視覚システムの限界を利用して、知覚的に重要な領域に計算資源を集中させることにより、超解像技術の効率を向上させる。
本稿では,ネットワーク分岐とネットワーク複雑性の低減を併用して提案手法の適用を実証し,可視品質損失を伴わない超解像法の計算効率の向上を図った。
2$\mathbf{x}$以上の因子でFLOPSを減らし, 知覚品質を犠牲にすることなく, 定量的, 質的な評価を行った。
関連論文リスト
- From Far and Near: Perceptual Evaluation of Crowd Representations Across Levels of Detail [1.0742675209112622]
本研究では,観客の表情表現の視覚的質を,異なるレベルの詳細(LoD)と視聴距離で知覚する方法について検討する。
この結果は,クラウドレンダリングのための知覚的に最適化されたLoD戦略の設計の指針となる。
論文 参考訳(メタデータ) (2025-10-23T13:39:18Z) - Perception-oriented Bidirectional Attention Network for Image Super-resolution Quality Assessment [61.27648290203618]
画像SR FR-IQAのための知覚指向双方向注意ネットワーク(PBAN)を提案する。
PBANは、イメージエンコーダモジュール、知覚指向双方向アテンション(PBA)モジュール、品質予測モジュールの3つのモジュールで構成されている。
提案するPBANは,最先端の品質評価方法より優れている。
論文 参考訳(メタデータ) (2025-09-08T08:39:45Z) - One-Step Diffusion-based Real-World Image Super-Resolution with Visual Perception Distillation [53.24542646616045]
画像超解像(SR)生成に特化して設計された新しい視覚知覚拡散蒸留フレームワークであるVPD-SRを提案する。
VPD-SRは2つのコンポーネントから構成される: 明示的セマンティック・アウェア・スーパービジョン(ESS)と高周波知覚(HFP)損失。
提案したVPD-SRは,従来の最先端手法と教師モデルの両方と比較して,たった1ステップのサンプリングで優れた性能が得られる。
論文 参考訳(メタデータ) (2025-06-03T08:28:13Z) - Implicit Neural Representation for Video and Image Super-Resolution [4.960738913876514]
暗黙的ニューラル表現(INR)を用いた超解像の新手法を提案する。
提案手法は,低分解能入力と3次元高分解能グリッドのみを用いた高分解能再構成を容易にする。
提案手法であるSR-INRは,フレームと画像間の一貫した詳細を維持し,時間的安定性を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-06T17:58:55Z) - HUPE: Heuristic Underwater Perceptual Enhancement with Semantic Collaborative Learning [62.264673293638175]
既存の水中画像強調法は主に視覚的品質の向上に重点を置いており、実際的な意味を見落としている。
視覚的品質を高め,他の下流タスクに対処する柔軟性を示す,水中知覚向上のための可逆的ネットワークHを提案する。
論文 参考訳(メタデータ) (2024-11-27T12:37:03Z) - Research on Image Super-Resolution Reconstruction Mechanism based on Convolutional Neural Network [8.739451985459638]
超解像アルゴリズムは、同一シーンから撮影された1つ以上の低解像度画像を高解像度画像に変換する。
再構成過程における画像の特徴抽出と非線形マッピング手法は,既存のアルゴリズムでは依然として困難である。
目的は、高解像度の画像から高品質で高解像度の画像を復元することである。
論文 参考訳(メタデータ) (2024-07-18T06:50:39Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - A General Method to Incorporate Spatial Information into Loss Functions for GAN-based Super-resolution Models [25.69505971220203]
GAN(Generative Adversarial Networks)は超解像問題において優れた性能を示した。
GANは、予期せぬアーチファクトやノイズなど、出力に副作用をもたらすことが多い。
本稿では,多くのGANベース超解像(SR)モデルにおいて,トレーニングプロセスに必須空間情報を導入することで,効果的に活用できる汎用手法を提案する。
論文 参考訳(メタデータ) (2024-03-15T17:29:16Z) - Reimagining Reality: A Comprehensive Survey of Video Inpainting
Techniques [6.36998581871295]
ビデオ・インペイント(英: Video inpainting)とは、ビデオ・シーケンスの欠落や破損した部分を再生または埋めるプロセスである。
本研究は, 主要な技術, その基盤となる理論, 有効利用を分解する。
我々は、視覚的品質を評価するために人間中心のアプローチを採用し、異なる映像塗装技術の出力を評価するためにアノテータのパネルを登録する。
論文 参考訳(メタデータ) (2024-01-31T14:41:40Z) - Neural Point-based Volumetric Avatar: Surface-guided Neural Points for
Efficient and Photorealistic Volumetric Head Avatar [62.87222308616711]
ニューラルポイント表現とニューラルボリュームレンダリングプロセスを採用したフルネーム(名前)を提案する。
具体的には、ニューラルポイントは高分解能UV変位マップを介してターゲット表現の表面を戦略的に拘束する。
設計上は,アバターをアニメーションする際の正確な表現制御を確保しつつ,地形的に変化する領域や細い構造を扱えるように設計されている。
論文 参考訳(メタデータ) (2023-07-11T03:40:10Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Textural-Structural Joint Learning for No-Reference Super-Resolution
Image Quality Assessment [59.91741119995321]
我々は、TSNetと呼ばれる品質予測のためのテキスト情報と構造情報を共同で探索するデュアルストリームネットワークを開発した。
画像の重要な領域に注意を払っている人間の視覚システム(HVS)を模倣することにより、視覚に敏感な領域をより区別しやすくするための空間的注意機構を開発する。
実験の結果,提案したTSNetは現状のIQA法よりも視覚的品質を正確に予測し,人間の視点との整合性を示した。
論文 参考訳(メタデータ) (2022-05-27T09:20:06Z) - Learning GAN-based Foveated Reconstruction to Recover Perceptually
Important Image Features [0.0]
本研究では, 埋設工法を効率的に指導する上での問題点を考察する。
私たちの一番の目標は、人間が検出できない歪みに対してトレーニング手順の感度を下げることです。
評価の結果, 画像再構成の精度は, GANベースのトレーニング手法に比べて有意に向上した。
論文 参考訳(メタデータ) (2021-08-07T18:39:49Z) - Effectiveness of State-of-the-Art Super Resolution Algorithms in
Surveillance Environment [0.0]
画像スーパーレゾリューション (SR) は、画像が観測者によって綿密に検査される必要がある領域において、強化された情報を抽出するアプリケーションを見つける。
従来の4つのSRアルゴリズムと3つのディープラーニングベースのSRアルゴリズムの有効性を検証した。
外部辞書を用いたCNNベースのSR技術は, 頑健な顔検出精度を実現することにより, 最良であることが証明された。
論文 参考訳(メタデータ) (2021-07-08T22:28:48Z) - Analysis and evaluation of Deep Learning based Super-Resolution
algorithms to improve performance in Low-Resolution Face Recognition [0.0]
超解像アルゴリズムは、関係する被験者の識別特性を回復することができる。
このプロジェクトは、顔の超解像のタスクのための異なるディープニューラルネットワークアーキテクチャを評価し、適応することを目的とした。
実験により、一般的なスーパーレゾリューションアーキテクチャは、高レゾリューション顔で訓練されたディープニューラルネットワークのフェイス検証性能を向上させることが判明した。
論文 参考訳(メタデータ) (2021-01-19T02:41:57Z) - Deep Learning-based Face Super-resolution: A Survey [78.11274281686246]
顔の超解像、別名顔の幻覚は、ドメイン固有のイメージの超解像問題です。
現在、深層学習に基づく顔の超解像に関する研究の要約は少ない。
本調査では,超解像面における深層学習の手法を体系的に総合的に検討する。
論文 参考訳(メタデータ) (2021-01-11T08:17:11Z) - Interpretable Detail-Fidelity Attention Network for Single Image
Super-Resolution [89.1947690981471]
本研究では,スムースとディテールを段階的に分割・収束的に処理する,目的・解釈可能なディテール・ファイダリティ・アテンション・ネットワークを提案する。
特に,詳細推論において顕著な解釈可能な特徴表現のためのヘシアンフィルタを提案する。
実験により,提案手法は最先端手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2020-09-28T08:31:23Z) - Blind Quality Assessment for Image Superresolution Using Deep Two-Stream
Convolutional Networks [41.558981828761574]
我々は,非参照深部ニューラルネットワークを用いたSR画像品質評価器(DeepSRQ)を提案する。
様々な歪んだSR画像のより識別的な特徴表現を学習するために、提案したDeepSRQは2ストリームの畳み込みネットワークである。
3つの公開SR画像品質データベースの実験結果から,提案したDeepSRQの有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2020-04-13T19:14:28Z) - Gated Fusion Network for Degraded Image Super Resolution [78.67168802945069]
本稿では,基本特徴と回復特徴を別々に抽出する二分岐畳み込みニューラルネットワークを提案する。
特徴抽出ステップを2つのタスク非依存ストリームに分解することで、デュアルブランチモデルがトレーニングプロセスを容易にすることができる。
論文 参考訳(メタデータ) (2020-03-02T13:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。