論文の概要: Scale-, shift- and rotation-invariant diffractive optical networks
- arxiv url: http://arxiv.org/abs/2010.12747v1
- Date: Sat, 24 Oct 2020 02:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 13:21:01.716095
- Title: Scale-, shift- and rotation-invariant diffractive optical networks
- Title(参考訳): スケール、シフト、回転不変な微分光学ネットワーク
- Authors: Deniz Mengu, Yair Rivenson, Aydogan Ozcan
- Abstract要約: D2NN(Diffractive Deep Neural Networks)は、一連のトレーニング可能な表面上の光-物質相互作用を利用して、所望の統計的推論タスクを計算する。
そこで本研究では,学習期間中に入力オブジェクトの変換,回転,スケーリングを導入する,拡散型ネットワークの新たなトレーニング戦略を示す。
このトレーニング戦略は、スケール、シフト、回転不変の解への微分光学ネットワーク設計の進化をうまく導く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research efforts in optical computing have gravitated towards
developing optical neural networks that aim to benefit from the processing
speed and parallelism of optics/photonics in machine learning applications.
Among these endeavors, Diffractive Deep Neural Networks (D2NNs) harness
light-matter interaction over a series of trainable surfaces, designed using
deep learning, to compute a desired statistical inference task as the light
waves propagate from the input plane to the output field-of-view. Although,
earlier studies have demonstrated the generalization capability of diffractive
optical networks to unseen data, achieving e.g., >98% image classification
accuracy for handwritten digits, these previous designs are in general
sensitive to the spatial scaling, translation and rotation of the input
objects. Here, we demonstrate a new training strategy for diffractive networks
that introduces input object translation, rotation and/or scaling during the
training phase as uniformly distributed random variables to build resilience in
their blind inference performance against such object transformations. This
training strategy successfully guides the evolution of the diffractive optical
network design towards a solution that is scale-, shift- and
rotation-invariant, which is especially important and useful for dynamic
machine vision applications in e.g., autonomous cars, in-vivo imaging of
biomedical specimen, among others.
- Abstract(参考訳): 光コンピューティングにおける最近の研究は、機械学習アプリケーションにおける光学/フォトニクスの処理速度と並列性から恩恵を受ける光ニューラルネットワークの開発に力を入れている。
これらの取り組みの中で、D2NN(Diffractive Deep Neural Networks)は、深層学習を用いて設計された一連のトレーニング可能な表面上の光-マター相互作用を利用して、入力面から出力視野へ伝搬する光波として所望の統計的推論タスクを計算する。
初期の研究では、非知覚データに対する回折光学ネットワークの一般化能力が実証され、手書きの数字に対する画像分類精度が98%以上に達したが、これらの以前の設計は一般に入力対象の空間的スケーリング、翻訳、回転に敏感である。
本稿では,入力対象の変換,回転および/またはスケーリングを,一様分散確率変数として導入し,対象変換に対するブラインド推論性能のレジリエンスを構築する,差分ネットワークのための新たなトレーニング戦略を示す。
このトレーニング戦略は、拡散型光ネットワーク設計の進化を、特に自律走行車や生体標本の生体内イメージングなどの動的マシンビジョン応用に有用で重要なスケール、シフト、回転不変な解へと導くのに成功している。
関連論文リスト
- Optical training of large-scale Transformers and deep neural networks with direct feedback alignment [48.90869997343841]
我々は,ハイブリッド電子フォトニックプラットフォーム上で,ダイレクトフィードバックアライメントと呼ばれる多目的でスケーラブルなトレーニングアルゴリズムを実験的に実装した。
光処理ユニットは、このアルゴリズムの中央動作である大規模ランダム行列乗算を最大1500テラOpsで行う。
我々は、ハイブリッド光アプローチの計算スケーリングについて検討し、超深度・広帯域ニューラルネットワークの潜在的な利点を実証する。
論文 参考訳(メタデータ) (2024-09-01T12:48:47Z) - Training Large-Scale Optical Neural Networks with Two-Pass Forward Propagation [0.0]
本稿では、トレーニング効率、非線形関数の実装、大規模入力データ処理に関連する光学ニューラルネットワーク(ONN)の限界について述べる。
ランダムノイズによる誤差の変調と再入出力により,特定の非線形アクティベーション関数を回避する新しいトレーニング手法であるTwo-Pass Forward Propagationを導入する。
統合光学系における単純なニューラルネットワークを用いた畳み込みニューラルネットワークの新たな実装法を提案する。
論文 参考訳(メタデータ) (2024-08-15T11:27:01Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Training neural networks with end-to-end optical backpropagation [1.1602089225841632]
光プロセスを用いてニューラルネットワークをトレーニングするアルゴリズムであるバックプロパゲーションの実装方法を示す。
我々のアプローチは、様々なアナログプラットフォーム、材料、ネットワーク構造に適用可能である。
これは、トレーニングタスクと推論タスクの両方において、アナログ光学プロセスに完全に依存するニューラルネットワークを構築する可能性を示している。
論文 参考訳(メタデータ) (2023-08-09T21:11:26Z) - Time-lapse image classification using a diffractive neural network [0.0]
回折ネットワークを用いたタイムラプス画像分類方式を初めて示す。
CIFAR-10データセットからの物体の光学的分類におけるブラインドテスト精度は62.03%である。
これは、これまで1つの回折ネットワークを用いて達成された最も高い推測精度を構成する。
論文 参考訳(メタデータ) (2022-08-23T08:16:30Z) - Experimentally realized in situ backpropagation for deep learning in
nanophotonic neural networks [0.7627023515997987]
私たちは、カスタムデザインの「フォトニックメッシュ」アクセラレーターをカスケードする、大量製造可能なシリコンフォトニックニューラルネットワークを設計します。
In situ backproagation を初めて示し、分類課題を解く。
本研究は、フォトニクス加速人工知能の新しいトレーニングパラダイムを、一般的なバックプロパゲーション手法の物理的類似に基づいて提案するものであることを示唆する。
論文 参考訳(メタデータ) (2022-05-17T17:13:50Z) - All-optical graph representation learning using integrated diffractive
photonic computing units [51.15389025760809]
フォトニックニューラルネットワークは、電子の代わりに光子を用いて脳にインスパイアされた計算を行う。
我々は、DGNN(diffractive graph neural network)と呼ばれる全光グラフ表現学習アーキテクチャを提案する。
ベンチマークデータベースを用いたノードおよびグラフレベルの分類タスクにおけるDGNN抽出機能の利用を実演し、優れた性能を実現する。
論文 参考訳(メタデータ) (2022-04-23T02:29:48Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - Misalignment Resilient Diffractive Optical Networks [14.520023891142698]
本稿では,3次元のミスアライメントと耐加工性に対する拡散ネットワークのロバスト性を大幅に向上させる新しいトレーニング手法を紹介し,実験的に実証する。
3次元の望ましくない層間ミスアライメントを光フォワードモデルにおける連続的ランダム変数としてモデル化することにより、拡散ネットワークは広い範囲のミスアライメントにわたって推論精度を維持するように訓練される。
論文 参考訳(メタデータ) (2020-05-23T04:22:48Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。