論文の概要: Super-resolution image display using diffractive decoders
- arxiv url: http://arxiv.org/abs/2206.07281v1
- Date: Wed, 15 Jun 2022 03:42:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 15:10:40.841604
- Title: Super-resolution image display using diffractive decoders
- Title(参考訳): 回折デコーダを用いた超高解像度画像表示
- Authors: Cagatay Isil, Deniz Mengu, Yifan Zhao, Anika Tabassum, Jingxi Li, Yi
Luo, Mona Jarrahi, and Aydogan Ozcan
- Abstract要約: 大きな視野(FOV)上の画像の高分解能合成・投影は、波面変調器の制限された空間帯域積(SBP)によって妨げられる。
本稿では,電子エンコーダと光デコーダを併用した深層学習型回折ディスプレイの設計について報告する。
以上の結果から,この回折画像表示はSBPの16倍の増加を示す4の超解像係数を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 21.24387597787123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-resolution synthesis/projection of images over a large field-of-view
(FOV) is hindered by the restricted space-bandwidth-product (SBP) of wavefront
modulators. We report a deep learning-enabled diffractive display design that
is based on a jointly-trained pair of an electronic encoder and a diffractive
optical decoder to synthesize/project super-resolved images using
low-resolution wavefront modulators. The digital encoder, composed of a trained
convolutional neural network (CNN), rapidly pre-processes the high-resolution
images of interest so that their spatial information is encoded into
low-resolution (LR) modulation patterns, projected via a low SBP wavefront
modulator. The diffractive decoder processes this LR encoded information using
thin transmissive layers that are structured using deep learning to
all-optically synthesize and project super-resolved images at its output FOV.
Our results indicate that this diffractive image display can achieve a
super-resolution factor of ~4, demonstrating a ~16-fold increase in SBP. We
also experimentally validate the success of this diffractive super-resolution
display using 3D-printed diffractive decoders that operate at the THz spectrum.
This diffractive image decoder can be scaled to operate at visible wavelengths
and inspire the design of large FOV and high-resolution displays that are
compact, low-power, and computationally efficient.
- Abstract(参考訳): 大きな視野(FOV)上の画像の高分解能合成・投影は、波面変調器の制限された空間帯域積(SBP)によって妨げられる。
低分解能波面変調器を用いて超解像を合成・投影するための電子エンコーダと光デコーダを併用した深層学習型回折表示設計について報告する。
訓練された畳み込みニューラルネットワーク(CNN)からなるデジタルエンコーダは、空間情報を低SBP波面変調器を介して低分解能(LR)変調パターンに符号化するように、関心の高解像度画像を迅速に前処理する。
回折デコーダは、このLR符号化情報を、ディープラーニングを用いて構造化された薄い透過層を用いて処理し、その出力FOVで超解像を全光合成し投影する。
以上の結果から,この回折画像表示は4倍の超解像率を達成でき,SBPの16倍の増大を示すことが示唆された。
THzスペクトルで動作する3Dプリント型回折デコーダを用いて,この回折超解像ディスプレイの成功を実験的に検証した。
この回折像デコーダは可視波長で動作するようにスケールでき、コンパクトで低消費電力で計算効率の良い大きなfovおよび高解像度ディスプレイの設計を刺激することができる。
関連論文リスト
- Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - Subwavelength Imaging using a Solid-Immersion Diffractive Optical
Processor [9.47970290529295]
位相オブジェクトのサブ波長イメージングのための小型全光回折撮像装置を開発した。
バイオイメージング、内視鏡、センシング、材料キャラクタリゼーションにおいて幅広い応用を見出すことができる。
論文 参考訳(メタデータ) (2024-01-17T02:12:57Z) - More complex encoder is not all you need [0.882348769487259]
我々は,強力なデコーダを構築するために,新しいサブピクセル・コンボリューションを組み込んだneU-Net(複雑なエンコーダではないU-Net)を導入する。
我々のモデル設計は、SynapseとACDCの両方のデータセット上で、最先端の手法を上回る優れた結果が得られる。
論文 参考訳(メタデータ) (2023-09-20T08:34:38Z) - Pyramid diffractive optical networks for unidirectional image magnification and demagnification [0.0]
ピラミッド構造を有する回折光ネットワークの設計法(P-D2NN)を提案する。
P-D2NNの設計は、一方の方向だけに高忠実度またはデマジネーションされた画像を生成し、他方の方向における画像形成を阻害する。
論文 参考訳(メタデータ) (2023-08-29T04:46:52Z) - Learning Kernel-Modulated Neural Representation for Efficient Light
Field Compression [41.24757573290883]
光場圧縮タスクのためのコンパクトニューラルネットワーク表現を設計する。
トレーニング中に学んだシーン記述情報を格納する記述カーネル(ディスクリプタ)と、クエリされた視点から異なるSAIのレンダリングを制御する変調カーネル(モジュレータ)の2種類で構成されている。
論文 参考訳(メタデータ) (2023-07-12T12:58:03Z) - Neural Data-Dependent Transform for Learned Image Compression [72.86505042102155]
ニューラルデータに依存した変換を構築し,各画像の符号化効率を最適化する連続オンラインモード決定機構を導入する。
実験の結果,提案したニューラルシンタクス設計と連続オンラインモード決定機構の有効性が示された。
論文 参考訳(メタデータ) (2022-03-09T14:56:48Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Neural Étendue Expander for Ultra-Wide-Angle High-Fidelity Holographic Display [51.399291206537384]
現代のホログラフィックディスプレイは、表示領域と回折光の最大固体角度の積である低い「エンテンダ」を有する。
自然画像データセットから学習したニューラルな「固有拡大器」を提案する。
ニューラルネットワーク拡張器を用いて,64$times$ 'etendue expansion of natural image in full color, and expand the FOV by a magnitude of horizontal and vertically。
論文 参考訳(メタデータ) (2021-09-16T17:21:52Z) - A Novel Unified Model for Multi-exposure Stereo Coding Based on Low Rank
Tucker-ALS and 3D-HEVC [0.6091702876917279]
テンソル低ランク近似に基づくマルチ露光ステレオ画像の効率的な符号化法を提案する。
マルチ露光融合によりデコーダのHDRステレオ出力が生成され、リアリズムと両眼3D深度が向上する。
3D-HEVCによる符号化は、低ランク近似表現におけるフレーム内、ビュー間、コンポーネント間冗長性を利用して提案されたスキーム効率を向上させる。
論文 参考訳(メタデータ) (2021-04-10T10:10:14Z) - Learned Multi-View Texture Super-Resolution [76.82725815863711]
仮想3Dオブジェクトの高解像度テクスチャマップを,そのオブジェクトの低解像度画像の集合から作成できる超高解像度手法を提案する。
本アーキテクチャは, (i) 重なり合うビューの冗長性に基づくマルチビュー超解像の概念と, (ii) 高分解能画像構造の学習先行に基づくシングルビュー超解像の概念を統一する。
論文 参考訳(メタデータ) (2020-01-14T13:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。