論文の概要: Ultra-High-Definition Dynamic Multi-Exposure Image Fusion via Infinite Pixel Learning
- arxiv url: http://arxiv.org/abs/2412.11685v1
- Date: Mon, 16 Dec 2024 11:55:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:56:50.439061
- Title: Ultra-High-Definition Dynamic Multi-Exposure Image Fusion via Infinite Pixel Learning
- Title(参考訳): 無限画素学習による超高精細ダイナミックマルチ露光画像融合
- Authors: Xingchi Chen, Zhuoran Zheng, Xuerui Li, Yuying Chen, Shu Wang, Wenqi Ren,
- Abstract要約: 動的シーンにおけるマルチ露光画像を融合する既存の手法は、低解像度画像のために設計されている。
本稿では,UHDマルチ露光ダイナミックシーン画像融合を実現するための新しい学習パラダイムを提案する。
提案手法は,UHD動的マルチ露光画像をリアルタイムに融合しながら,高品質な視覚性能を維持する。
- 参考スコア(独自算出の注目度): 36.536727716387446
- License:
- Abstract: With the continuous improvement of device imaging resolution, the popularity of Ultra-High-Definition (UHD) images is increasing. Unfortunately, existing methods for fusing multi-exposure images in dynamic scenes are designed for low-resolution images, which makes them inefficient for generating high-quality UHD images on a resource-constrained device. To alleviate the limitations of extremely long-sequence inputs, inspired by the Large Language Model (LLM) for processing infinitely long texts, we propose a novel learning paradigm to achieve UHD multi-exposure dynamic scene image fusion on a single consumer-grade GPU, named Infinite Pixel Learning (IPL). The design of our approach comes from three key components: The first step is to slice the input sequences to relieve the pressure generated by the model processing the data stream; Second, we develop an attention cache technique, which is similar to KV cache for infinite data stream processing; Finally, we design a method for attention cache compression to alleviate the storage burden of the cache on the device. In addition, we provide a new UHD benchmark to evaluate the effectiveness of our method. Extensive experimental results show that our method maintains high-quality visual performance while fusing UHD dynamic multi-exposure images in real-time (>40fps) on a single consumer-grade GPU.
- Abstract(参考訳): デバイス画像解像度の継続的な改善により、UHD(Ultra-High-Definition)画像の人気が高まっている。
残念ながら、動的シーンにおけるマルチ露光画像を融合する既存の方法は、低解像度の画像のために設計されており、リソース制約されたデバイス上で高品質なUHD画像を生成するのに非効率である。
無限長のテキストを処理するためのLarge Language Model (LLM) に触発された超長文入力の制限を軽減するため,UHDマルチ露光ダイナミックシーン画像融合を実現するための新しい学習パラダイム,Infinite Pixel Learning (IPL) を提案する。
まず、入力シーケンスをスライスしてデータストリームを処理し、次に、KVキャッシュに類似したアテンションキャッシュ技術を開発し、最後に、デバイス上のキャッシュの記憶負担を軽減するためのアテンションキャッシュ圧縮手法を設計する。
さらに,本手法の有効性を評価するために,新しいUHDベンチマークを提案する。
広汎な実験結果から,UHD動的マルチ露光画像を1つのコンシューマグレードGPU上でリアルタイム(>40fps)にフェースしながら,高品質な視覚性能を維持できることが示された。
関連論文リスト
- Dropout the High-rate Downsampling: A Novel Design Paradigm for UHD Image Restoration [11.866565346920781]
D2NetはUHD(Ultra-high-definition)画像の完全な推測を可能にする。
本モデルは,最先端手法よりも定量的,定性的な結果が得られることを示す。
論文 参考訳(メタデータ) (2024-11-10T13:05:36Z) - Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - Towards Ultra-High-Definition Image Deraining: A Benchmark and An Efficient Method [42.331058889312466]
本稿では,4K解像度で13,000枚の画像対を含む4K-Rain13kの大規模UHD画像デライニングデータセットについて述べる。
我々は,この課題をより効果的かつ効率的な視覚ベースアーキテクチャ (UDR-Mixer) を開発した。
論文 参考訳(メタデータ) (2024-05-27T11:45:08Z) - HINT: High-quality INPainting Transformer with Mask-Aware Encoding and
Enhanced Attention [14.055584700641212]
既存の画像塗装法は畳み込みに基づくダウンサンプリング手法を利用して空間次元を小さくする。
本稿では,新しいマスク対応画素シャッフルダウンサンプリングモジュールであるHINTを用いたエンドツーエンドの高品質インペインティングトランスを提案する。
4つのデータセット上の現代最先端モデルと比較して,HINTの優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-22T00:14:26Z) - Gated Multi-Resolution Transfer Network for Burst Restoration and
Enhancement [75.25451566988565]
低画質の原画像のバーストから空間的精度の高い高画質画像を再構成する新しいGated Multi-Resolution Transfer Network (GMTNet)を提案する。
5つのデータセットに関する詳細な実験分析は、我々のアプローチを検証し、バースト超解像、バーストデノイング、低照度バーストエンハンスメントのための最先端技術を設定する。
論文 参考訳(メタデータ) (2023-04-13T17:54:00Z) - Embedding Fourier for Ultra-High-Definition Low-Light Image Enhancement [78.67036949708795]
UHD(Ultra-High-Definition)写真は、高度な撮像装置の標準構成となっている。
本稿では,Fourier変換をカスケードネットワークに組み込む新しいソリューションUHDFourを提案する。
また,2,150個の低雑音/正規クラー4K画像ペアを含むUHD LLIEデータセットである textbfUHD-LL をコントリビュートした。
論文 参考訳(メタデータ) (2023-02-23T07:43:41Z) - Deep Progressive Feature Aggregation Network for High Dynamic Range
Imaging [24.94466716276423]
本研究では,動的シーンにおけるHDR画像の画質向上のための高度な特徴集約ネットワークを提案する。
提案手法は,高対応特徴を暗黙的にサンプリングし,それらを粗い方法で集約してアライメントする。
実験の結果,提案手法は異なるシーン下での最先端性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2022-08-04T04:37:35Z) - Learning Regularized Multi-Scale Feature Flow for High Dynamic Range
Imaging [29.691689596845112]
正規化損失によって導かれるマルチスケールな特徴フローを学習しようとするディープネットワークを提案する。
まず、マルチスケールの特徴を抽出し、非参照画像から特徴を整列する。
調整後、異なる画像の特徴をマージするために残留チャネルアテンションブロックを使用する。
論文 参考訳(メタデータ) (2022-07-06T09:37:28Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Early Exit or Not: Resource-Efficient Blind Quality Enhancement for
Compressed Images [54.40852143927333]
ロスシー画像圧縮は、通信帯域を節約するために広範に行われ、望ましくない圧縮アーティファクトをもたらす。
圧縮画像に対する資源効率の高いブラインド品質向上手法(RBQE)を提案する。
提案手法は, 評価された画像の品質に応じて, 自動的にエンハンスメントを終了するか, 継続するかを決定することができる。
論文 参考訳(メタデータ) (2020-06-30T07:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。