論文の概要: Deep Learning with Passive Optical Nonlinear Mapping
- arxiv url: http://arxiv.org/abs/2307.08558v2
- Date: Tue, 18 Jul 2023 15:23:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 11:22:19.370338
- Title: Deep Learning with Passive Optical Nonlinear Mapping
- Title(参考訳): 受動非線形マッピングを用いた深層学習
- Authors: Fei Xia, Kyungduk Kim, Yaniv Eliezer, Liam Shaughnessy, Sylvain Gigan,
Hui Cao
- Abstract要約: 残響共振器内の多重散乱を利用して光非線形ランダムマッピングを受動的に誘導する設計を提案する。
キャビティ内の多重散乱により容易な光データ圧縮を行い, 重要情報を効率よく圧縮し, 保持できることを示す。
我々の発見は、光コンピューティングのための新しいアルゴリズムとアーキテクチャ設計の道を開いた。
- 参考スコア(独自算出の注目度): 9.177212626554505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has fundamentally transformed artificial intelligence, but the
ever-increasing complexity in deep learning models calls for specialized
hardware accelerators. Optical accelerators can potentially offer enhanced
performance, scalability, and energy efficiency. However, achieving nonlinear
mapping, a critical component of neural networks, remains challenging
optically. Here, we introduce a design that leverages multiple scattering in a
reverberating cavity to passively induce optical nonlinear random mapping,
without the need for additional laser power. A key advantage emerging from our
work is that we show we can perform optical data compression, facilitated by
multiple scattering in the cavity, to efficiently compress and retain vital
information while also decreasing data dimensionality. This allows rapid
optical information processing and generation of low dimensional mixtures of
highly nonlinear features. These are particularly useful for applications
demanding high-speed analysis and responses such as in edge computing devices.
Utilizing rapid optical information processing capabilities, our optical
platforms could potentially offer more efficient and real-time processing
solutions for a broad range of applications. We demonstrate the efficacy of our
design in improving computational performance across tasks, including
classification, image reconstruction, key-point detection, and object
detection, all achieved through optical data compression combined with a
digital decoder. Notably, we observed high performance, at an extreme
compression ratio, for real-time pedestrian detection. Our findings pave the
way for novel algorithms and architectural designs for optical computing.
- Abstract(参考訳): ディープラーニングは人工知能を根本的に変えてきたが、ディープラーニングモデルの複雑さはますます高まっている。
光加速器は、性能、スケーラビリティ、エネルギー効率が向上する可能性がある。
しかし、ニューラルネットワークの重要な構成要素である非線形マッピングの実現は、光学的に困難なままである。
本稿では, 残響キャビティ内の多重散乱を利用して, レーザーパワーを増すことなく, 受動的に非線形ランダムマッピングを誘導する設計を提案する。
我々の研究から生じる重要な利点は、キャビティ内の多重散乱によって促進される光データ圧縮を行い、データ次元を減少させながら、重要な情報を効率よく圧縮・保持できることである。
これにより、高速光情報処理と高非線形特徴の低次元混合を生成することができる。
これらはエッジコンピューティングデバイスのような高速解析や応答を必要とするアプリケーションに特に有用である。
高速な光情報処理機能を利用することで、我々の光学プラットフォームはより効率的でリアルタイムな処理ソリューションを幅広い用途に提供できる可能性がある。
ディジタルデコーダを併用した光データ圧縮により, 分類, 画像再構成, キーポイント検出, オブジェクト検出など, タスク全体の計算性能を向上させるための設計の有効性を実証した。
特に, リアルタイム歩行者検出において, 極めて高い圧縮率で高い性能を観察した。
我々の発見は、光コンピューティングのための新しいアルゴリズムとアーキテクチャ設計の道を開いた。
関連論文リスト
- Successive optimization of optics and post-processing with differentiable coherent PSF operator and field information [9.527960631238173]
我々は正確な光学シミュレーションモデルを導入し、パイプライン内の全ての操作は微分可能である。
様々な劣化に効率的に対処するために,フィールド情報を活用する共同最適化手法を設計する。
論文 参考訳(メタデータ) (2024-12-19T07:49:40Z) - Generalizable Non-Line-of-Sight Imaging with Learnable Physical Priors [52.195637608631955]
非視線画像(NLOS)は、その潜在的な応用により注目されている。
既存のNLOS再構成アプローチは、経験的物理的前提に依存して制約される。
本稿では,Learningable Path Compensation(LPC)とAdaptive Phasor Field(APF)の2つの主要な設計を含む,学習に基づく新しいソリューションを提案する。
論文 参考訳(メタデータ) (2024-09-21T04:39:45Z) - Complex-valued universal linear transformations and image encryption
using spatially incoherent diffractive networks [0.0]
光学プロセッサとして、D2NN(Diffractive Deep Neural Network)は、機械学習によって設計された回折曲面を用いて、全光学情報処理を行う。
空間的に非コヒーレントな微分視覚プロセッサは、複雑な値の線形変換を近似し、非コヒーレント照明を用いた全光画像暗号化に使用できることを示す。
論文 参考訳(メタデータ) (2023-10-05T08:43:59Z) - Nonlinear Processing with Linear Optics [3.3998740964877467]
低光出力で同時にプログラム可能な線形変換と非線形変換を合成できる多重散乱を用いた新しいフレームワークを提案する。
我々は、この光学フレームワークのスケーリングが、最先端のディープデジタルネットワークのように、電力法則に従うことを実証的に見出した。
論文 参考訳(メタデータ) (2023-07-17T14:49:06Z) - Characterization of multi-mode linear optical networks [0.0]
不完全性の存在下での光回路のキャラクタリゼーションのための効率的な手順を定式化する。
本稿では,本手法の有効性を,可変集積フォトニック回路で定義された実験的なシナリオで示す。
本研究は, バルク構成と統合構成の両方に基づいて, 広い範囲の光学装置に応用できることを示す。
論文 参考訳(メタデータ) (2023-04-13T13:09:14Z) - On-chip quantum information processing with distinguishable photons [55.41644538483948]
多光子干渉は光量子技術の中心にある。
そこで本研究では,共振器型集積光子源に必要なスケールで変形した光子を干渉させるのに十分な時間分解能で検出を実装できることを実験的に実証した。
ボソンサンプリング実験において,非イデアル光子の時間分解検出がエンタングル操作の忠実度を向上し,計算複雑性の低減を図ることができることを示す。
論文 参考訳(メタデータ) (2022-10-14T18:16:49Z) - All-Photonic Artificial Neural Network Processor Via Non-linear Optics [0.0]
本稿では,全フォトニックニューラルネットワークプロセッサを提案する。
情報はニューロンとして機能する周波数モードの振幅に符号化される。
私たちのアーキテクチャは、完全にユニタリで可逆的な計算方法を提供するという点でユニークなものです。
論文 参考訳(メタデータ) (2022-05-17T19:55:30Z) - All-optical graph representation learning using integrated diffractive
photonic computing units [51.15389025760809]
フォトニックニューラルネットワークは、電子の代わりに光子を用いて脳にインスパイアされた計算を行う。
我々は、DGNN(diffractive graph neural network)と呼ばれる全光グラフ表現学習アーキテクチャを提案する。
ベンチマークデータベースを用いたノードおよびグラフレベルの分類タスクにおけるDGNN抽出機能の利用を実演し、優れた性能を実現する。
論文 参考訳(メタデータ) (2022-04-23T02:29:48Z) - Topologically Protecting Squeezed Light on a Photonic Chip [58.71663911863411]
集積フォトニクスは、導波路内部に厳密に光を閉じ込めることで非線形性を高めるエレガントな方法を提供する。
シリカチップに励起光を発生させることができる自発4波混合のトポロジカルに保護された非線形過程を実験的に実証した。
論文 参考訳(メタデータ) (2021-06-14T13:39:46Z) - Learning optical flow from still images [53.295332513139925]
我々は,容易に利用可能な単一の実画像から,高精度な光学的フローアノテーションを迅速かつ多量に生成するフレームワークを提案する。
既知の動きベクトルと回転角を持つ再構成された環境でカメラを仮想的に移動させる。
我々のデータでトレーニングすると、最先端の光フローネットワークは、実データを見るのに優れた一般化を実現する。
論文 参考訳(メタデータ) (2021-04-08T17:59:58Z) - Rapid characterisation of linear-optical networks via PhaseLift [51.03305009278831]
集積フォトニクスは優れた位相安定性を提供し、半導体産業によって提供される大規模な製造性に依存することができる。
このような光回路に基づく新しいデバイスは、機械学習アプリケーションにおいて高速でエネルギー効率の高い計算を約束する。
線形光ネットワークの転送行列を再構成する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-01T16:04:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。