論文の概要: Unitary Learning for Deep Diffractive Neural Network
- arxiv url: http://arxiv.org/abs/2009.08935v1
- Date: Mon, 17 Aug 2020 07:16:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 03:42:02.684386
- Title: Unitary Learning for Deep Diffractive Neural Network
- Title(参考訳): 深部拡散ニューラルネットワークのユニタリ学習
- Authors: Yong-Liang Xiao
- Abstract要約: 深層拡散型ニューラルネットワーク上での一元学習プロトコルを提案する。
単元学習における時間空間の進化特性を定式化し解明する。
予備的な応用として、単位学習を伴う深層拡散ニューラルネットワークを2次元分類と検証タスクに仮実装する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realization of deep learning with coherent diffraction has achieved
remarkable development nowadays, which benefits on the fact that matrix
multiplication can be optically executed in parallel as well as with little
power consumption. Coherent optical field propagated in the form of
complex-value entity can be manipulated into a task-oriented output with
statistical inference. In this paper, we present a unitary learning protocol on
deep diffractive neural network, meeting the physical unitary prior in coherent
diffraction. Unitary learning is a backpropagation serving to unitary weights
update through the gradient translation between Euclidean and Riemannian space.
The temporal-space evolution characteristic in unitary learning is formulated
and elucidated. Particularly a compatible condition on how to select the
nonlinear activations in complex space is unveiled, encapsulating the
fundamental sigmoid, tanh and quasi-ReLu in complex space. As a preliminary
application, deep diffractive neural network with unitary learning is
tentatively implemented on the 2D classification and verification tasks.
- Abstract(参考訳): 近年, コヒーレント回折による深層学習の実現が目覚ましい発展を遂げており, 行列乗算を光学的に並列に行うことができ, 消費電力も少なくなっている。
複素値実体の形で伝播するコヒーレント光学場は、統計的推論を伴うタスク指向の出力に操作することができる。
本稿では,コヒーレント回折の前の物理ユニタリを満たす,深層拡散型ニューラルネットワーク上のユニタリ学習プロトコルを提案する。
ユニタリ学習(unitary learning)は、ユークリッド空間とリーマン空間の間の勾配変換を通じてユニタリ重みを更新できるバックプロパゲーションである。
単元学習における時間空間の進化特性を定式化し解明する。
特に複素空間における非線形活性化の選択方法の相反する条件が明らかにされ、複素空間における基本シグモノイド、タン、準レリューをカプセル化する。
予備的な応用として、単位学習を伴う深層拡散ニューラルネットワークを2次元分類と検証タスクに仮実装する。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Connecting NTK and NNGP: A Unified Theoretical Framework for Wide Neural Network Learning Dynamics [6.349503549199403]
我々は、ディープ・ワイド・ニューラルネットワークの学習プロセスのための包括的なフレームワークを提供する。
拡散相を特徴づけることで、私たちの研究は脳内の表現的ドリフトに光を当てます。
論文 参考訳(メタデータ) (2023-09-08T18:00:01Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Geometry Perspective Of Estimating Learning Capability Of Neural
Networks [0.0]
本稿では,勾配勾配勾配を用いた最小二乗回帰(SGD)を一般化したニューラルネットワークの幅広いクラスについて考察する。
一般化能力とニューラルネットワークの安定性との関係についても論じている。
ニューラルネットワークの学習理論と高エネルギー物理の原理を関連付けることにより,人工ニューラルネットワークの観点からの複雑性・摩擦予想の変種を確立する。
論文 参考訳(メタデータ) (2020-11-03T12:03:19Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Compatible Learning for Deep Photonic Neural Network [0.0]
フォトニックニューラルネットワークは、予測指向のタスクに重要な可能性を秘めている。
そこで我々は,非線形な活性化を効率的に選択できる,複雑な空間における互換性のある学習プロトコルを開発した。
論文 参考訳(メタデータ) (2020-03-14T13:21:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。