論文の概要: All-Optical Information Processing Capacity of Diffractive Surfaces
- arxiv url: http://arxiv.org/abs/2007.12813v2
- Date: Wed, 18 Nov 2020 03:49:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 00:33:11.675077
- Title: All-Optical Information Processing Capacity of Diffractive Surfaces
- Title(参考訳): 回折表面の全光情報処理能力
- Authors: Onur Kulce, Deniz Mengu, Yair Rivenson, Aydogan Ozcan
- Abstract要約: 回折面によって形成されるコヒーレント光ネットワークの情報処理能力について解析する。
我々は、全光学解空間の次元性は、光ネットワーク内の回折面の数に線形に比例することを示した。
より多くのトレーニング可能な曲面からなるより深い微分ネットワークは、複素数値線型変換の高次元部分空間をカバーすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precise engineering of materials and surfaces has been at the heart of some
of the recent advances in optics and photonics. These advances around the
engineering of materials with new functionalities have also opened up exciting
avenues for designing trainable surfaces that can perform computation and
machine learning tasks through light-matter interaction and diffraction. Here,
we analyze the information processing capacity of coherent optical networks
formed by diffractive surfaces that are trained to perform an all-optical
computational task between a given input and output field-of-view. We show that
the dimensionality of the all-optical solution space covering the
complex-valued transformations between the input and output fields-of-view is
linearly proportional to the number of diffractive surfaces within the optical
network, up to a limit that is dictated by the extent of the input and output
fields-of-view. Deeper diffractive networks that are composed of larger numbers
of trainable surfaces can cover a higher dimensional subspace of the
complex-valued linear transformations between a larger input field-of-view and
a larger output field-of-view, and exhibit depth advantages in terms of their
statistical inference, learning and generalization capabilities for different
image classification tasks, when compared with a single trainable diffractive
surface. These analyses and conclusions are broadly applicable to various forms
of diffractive surfaces, including e.g., plasmonic and/or dielectric-based
metasurfaces and flat optics that can be used to form all-optical processors.
- Abstract(参考訳): 材料と表面の精密な工学は、光学と光子学の最近の進歩の核心にある。
新しい機能を持つ材料工学に関するこれらの進歩は、光間相互作用と回折によって計算と機械学習のタスクを実行できる訓練可能な表面を設計するためのエキサイティングな道を開いた。
本稿では、与えられた入力と出力フィールドの間の全光学計算タスクを実行するために訓練された回折曲面によって形成されたコヒーレント光ネットワークの情報処理能力を分析する。
入力フィールドと出力フィールドの間の複素値変換をカバーする全光学解空間の次元性は、入力フィールドと出力フィールド・オブ・ビューの範囲によって決定される限界まで、光学ネットワーク内の回折面の数に線形に比例することを示した。
より多くのトレーニング可能な曲面からなるより深い微分ネットワークは、より大きな入力場とより大きな出力場の間の複素値線形変換の高次元部分空間をカバーでき、単一のトレーニング可能な微分曲面と比較して、異なる画像分類タスクに対する統計的推論、学習および一般化能力の点で、深度優位性を示す。
これらの解析と結論は、プラズモニックおよび/または誘電体ベースのメタサーフェスや、全光学プロセッサを形成するのに使用できる平面光学など、様々な形態の回折表面に適用できる。
関連論文リスト
- All-optical complex field imaging using diffractive processors [12.665552989073797]
本稿では,入力フィールドの振幅情報と定量的位相情報の両方をスナップショットで撮像する複雑なフィールドイメージ設計を提案する。
我々の設計では、入力複素体を集合的に変調するために構造化された逐次的な深層学習最適化微分曲面を利用する。
センサ面上の2つのチャネルの出力場の強度分布は、入力された複素場の振幅および定量的位相プロファイルと直接対応している。
論文 参考訳(メタデータ) (2024-01-30T06:39:54Z) - Complex-valued universal linear transformations and image encryption
using spatially incoherent diffractive networks [0.0]
光学プロセッサとして、D2NN(Diffractive Deep Neural Network)は、機械学習によって設計された回折曲面を用いて、全光学情報処理を行う。
空間的に非コヒーレントな微分視覚プロセッサは、複雑な値の線形変換を近似し、非コヒーレント照明を用いた全光画像暗号化に使用できることを示す。
論文 参考訳(メタデータ) (2023-10-05T08:43:59Z) - Surface Geometry Processing: An Efficient Normal-based Detail
Representation [66.69000350849328]
2次元正規領域に効率的な表面詳細処理フレームワークを導入する。
提案する正規表現は,細部分離性,細部転送性,細部イデオロジェンスという3つの重要な特性を持つことを示す。
3つの新しいスキームは、幾何学的テクスチャ合成、幾何学的ディテール転送、3次元表面超解像を含む幾何学的表面詳細処理の応用のために設計されている。
論文 参考訳(メタデータ) (2023-07-16T04:46:32Z) - Neural Relighting with Subsurface Scattering by Learning the Radiance
Transfer Gradient [73.52585139592398]
本稿では,ボリュームレンダリングによる放射移動場学習のための新しいフレームワークを提案する。
我々は、我々のコードと、地下散乱効果を持つ新しい光ステージのオブジェクトデータセットを公開します。
論文 参考訳(メタデータ) (2023-06-15T17:56:04Z) - Characterization of multi-mode linear optical networks [0.0]
不完全性の存在下での光回路のキャラクタリゼーションのための効率的な手順を定式化する。
本稿では,本手法の有効性を,可変集積フォトニック回路で定義された実験的なシナリオで示す。
本研究は, バルク構成と統合構成の両方に基づいて, 広い範囲の光学装置に応用できることを示す。
論文 参考訳(メタデータ) (2023-04-13T13:09:14Z) - Universal Linear Intensity Transformations Using Spatially-Incoherent
Diffractive Processors [0.0]
空間的不整合光の下では、微分光学ネットワークは任意の複素値線形変換を行うように設計されている。
空間的非コヒーレントな拡散ネットワークは任意の線形強度変換を全光的に行うことができることを数値的に示す。
論文 参考訳(メタデータ) (2023-03-23T04:51:01Z) - Retrieving space-dependent polarization transformations via near-optimal
quantum process tomography [55.41644538483948]
トモグラフィー問題に対する遺伝的および機械学習アプローチの適用について検討する。
ニューラルネットワークベースのスキームは、リアルタイムにキャラクタリゼーションを必要とするアプリケーションにおいて、重要なスピードアップを提供する。
これらの結果は、より一般的な量子プロセスにおけるトモグラフィーアプローチの最適化の基礎となることを期待する。
論文 参考訳(メタデータ) (2022-10-27T11:37:14Z) - UnProjection: Leveraging Inverse-Projections for Visual Analytics of
High-Dimensional Data [63.74032987144699]
提案するNNInvは,プロジェクションやマッピングの逆を近似する深層学習技術である。
NNInvは、2次元投影空間上の任意の点から高次元データを再構成することを学び、ユーザーは視覚分析システムで学習した高次元表現と対話することができる。
論文 参考訳(メタデータ) (2021-11-02T17:11:57Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - Scale-, shift- and rotation-invariant diffractive optical networks [0.0]
D2NN(Diffractive Deep Neural Networks)は、一連のトレーニング可能な表面上の光-物質相互作用を利用して、所望の統計的推論タスクを計算する。
そこで本研究では,学習期間中に入力オブジェクトの変換,回転,スケーリングを導入する,拡散型ネットワークの新たなトレーニング戦略を示す。
このトレーニング戦略は、スケール、シフト、回転不変の解への微分光学ネットワーク設計の進化をうまく導く。
論文 参考訳(メタデータ) (2020-10-24T02:18:39Z) - Spatial-Angular Attention Network for Light Field Reconstruction [64.27343801968226]
非局所的な光場における対応を知覚する空間角アテンションネットワークを提案する。
非局所的なアテンション機構により、光界の各画素に対するエピポーラ面の全ての位置からの応答を計算するために、空間角アテンションモジュールが導入された。
次に,低空間スケールでの非局所的注意を効果的に実装するためのマルチスケール再構成構造を提案する。
論文 参考訳(メタデータ) (2020-07-05T06:55:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。