論文の概要: Image Quality, Uniformity and Computation Improvement of Compressive
Light Field Displays with U-Net
- arxiv url: http://arxiv.org/abs/2312.16987v1
- Date: Thu, 28 Dec 2023 12:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 16:32:15.040348
- Title: Image Quality, Uniformity and Computation Improvement of Compressive
Light Field Displays with U-Net
- Title(参考訳): U-Netによる圧縮電界ディスプレイの画質, 均一性, 計算精度の向上
- Authors: Chen Gao, Haifeng Li, Xu Liu, Xiaodi Tan
- Abstract要約: 圧縮光場合成にU-Netモデルを適用する。
積み重ねたCNNと反復アルゴリズムに基づく手法と比較して、この手法は画像の品質、均一性、計算量の削減をもたらす。
- 参考スコア(独自算出の注目度): 23.815337244740853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We apply the U-Net model for compressive light field synthesis. Compared to
methods based on stacked CNN and iterative algorithms, this method offers
better image quality, uniformity and less computation.
- Abstract(参考訳): 圧縮光場合成にU-Netモデルを適用する。
積み重ねたCNNと反復アルゴリズムに基づく手法と比較して、この手法は画像の品質、均一性、計算量の削減をもたらす。
関連論文リスト
- Layered Rendering Diffusion Model for Zero-Shot Guided Image Synthesis [60.260724486834164]
本稿では,テキストクエリに依存する拡散モデルにおける空間制御性向上のための革新的な手法を提案する。
視覚誘導(Vision Guidance)とレイヤーレンダリング拡散(Layered Rendering Diffusion)フレームワーク(Layered Diffusion)という2つの重要なイノベーションを提示します。
本稿では,ボックス・ツー・イメージ,セマンティック・マスク・ツー・イメージ,画像編集の3つの実践的応用に適用する。
論文 参考訳(メタデータ) (2023-11-30T10:36:19Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Sub-Image Histogram Equalization using Coot Optimization Algorithm for
Segmentation and Parameter Selection [0.0]
平均および分散に基づくサブイメージヒストグラム等化(MVSIHE)アルゴリズムは,これらのコントラスト強化手法の1つである。
本研究では,直近の最適化アルゴリズム,すなわちcoot Optimization algorithm(COA)を用いて,MVSIHEアルゴリズムの適切なパラメータを選択する。
その結果, バイオメディカル画像処理の分野では, 提案手法が有効であることが示唆された。
論文 参考訳(メタデータ) (2022-05-31T06:51:45Z) - Blind Image Inpainting with Sparse Directional Filter Dictionaries for
Lightweight CNNs [4.020698631876855]
本稿では,要素を線形に重み付けしたフィルタ辞書を応用した畳み込みカーネルの学習手法を提案する。
この結果から,従来のCNNに比べて塗装品質が向上しただけでなく,軽量ネットワーク設計におけるネットワーク収束性も大幅に向上した。
論文 参考訳(メタデータ) (2022-05-13T12:44:44Z) - Neural Data-Dependent Transform for Learned Image Compression [72.86505042102155]
ニューラルデータに依存した変換を構築し,各画像の符号化効率を最適化する連続オンラインモード決定機構を導入する。
実験の結果,提案したニューラルシンタクス設計と連続オンラインモード決定機構の有効性が示された。
論文 参考訳(メタデータ) (2022-03-09T14:56:48Z) - Image-specific Convolutional Kernel Modulation for Single Image
Super-resolution [85.09413241502209]
本稿では,新しい画像特異的畳み込み変調カーネル(IKM)を提案する。
我々は、画像や特徴のグローバルな文脈情報を利用して、畳み込みカーネルを適応的に調整するための注意重みを生成する。
単一画像超解像実験により,提案手法は最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-11-16T11:05:10Z) - SDWNet: A Straight Dilated Network with Wavelet Transformation for Image
Deblurring [23.86692375792203]
画像劣化は、ぼやけた画像から鋭い画像を復元することを目的としたコンピュータビジョンの問題である。
我々のモデルは拡張畳み込みを用いて空間分解能の高い大きな受容場を得ることができる。
本稿では,ウェーブレット変換を用いた新しいモジュールを提案する。
論文 参考訳(メタデータ) (2021-10-12T07:58:10Z) - Neural Knitworks: Patched Neural Implicit Representation Networks [1.0470286407954037]
画像合成を実現する自然画像の暗黙的表現学習のためのアーキテクチャであるKnitworkを提案する。
私たちの知る限りでは、画像のインペインティング、超解像化、デノイングといった合成作業に適した座標ベースのパッチの実装は、これが初めてである。
その結果, ピクセルではなくパッチを用いた自然な画像のモデリングにより, 忠実度が高い結果が得られた。
論文 参考訳(メタデータ) (2021-09-29T13:10:46Z) - Efficient and Differentiable Shadow Computation for Inverse Problems [64.70468076488419]
微分可能幾何計算は画像に基づく逆問題に対する関心が高まっている。
微分可能な可視性とソフトシャドウ計算のための効率的かつ効率的なアプローチを提案する。
定式化は微分可能であるため, テクスチャ, 照明, 剛体ポーズ, 画像からの変形回復などの逆問題を解くために使用できる。
論文 参考訳(メタデータ) (2021-04-01T09:29:05Z) - Anisotropic Mesh Adaptation for Image Segmentation Based on Mumford-Shah
Functional [0.0]
マンフォード-シャー汎関数に基づく偏微分方程式(PDE)モデルを解くことにより画像分割を考える。
画像表現のための異方性メッシュ適応とPDEモデルを解く有限要素法を組み合わせた新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-07-17T00:00:31Z) - Discovering Representations for Black-box Optimization [73.59962178534361]
ブラックボックス最適化符号化は手作業で行うのではなく,自動的に学習可能であることを示す。
学習された表現は、標準的なMAP-Elitesよりも桁違いに少ない評価で高次元の問題を解くことができることを示す。
論文 参考訳(メタデータ) (2020-03-09T20:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。