論文の概要: Deep neural networks for the evaluation and design of photonic devices
- arxiv url: http://arxiv.org/abs/2007.00084v1
- Date: Tue, 30 Jun 2020 19:52:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 06:31:31.834576
- Title: Deep neural networks for the evaluation and design of photonic devices
- Title(参考訳): フォトニックデバイスの評価と設計のためのディープニューラルネットワーク
- Authors: Jiaqi Jiang, Mingkun Chen, and Jonathan A. Fan
- Abstract要約: レビュー:ディープニューラルネットワークは、トレーニングセットからどのように学習し、高速サロゲート電磁解法として動作するか。
フォトニクスの文脈内での基本的なデータ科学についても論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The data sciences revolution is poised to transform the way photonic systems
are simulated and designed. Photonics are in many ways an ideal substrate for
machine learning: the objective of much of computational electromagnetics is
the capture of non-linear relationships in high dimensional spaces, which is
the core strength of neural networks. Additionally, the mainstream availability
of Maxwell solvers makes the training and evaluation of neural networks broadly
accessible and tailorable to specific problems. In this Review, we will show
how deep neural networks, configured as discriminative networks, can learn from
training sets and operate as high-speed surrogate electromagnetic solvers. We
will also examine how deep generative networks can learn geometric features in
device distributions and even be configured to serve as robust global
optimizers. Fundamental data sciences concepts framed within the context of
photonics will also be discussed, including the network training process,
delineation of different network classes and architectures, and dimensionality
reduction.
- Abstract(参考訳): データサイエンス革命は、フォトニックシステムのシミュレーションと設計の方法を変えようとしている。
フォトニクスは機械学習の理想的な基盤であり、多くの計算電磁学の目的は高次元空間における非線形関係を捉えることであり、これはニューラルネットワークの中核的な強みである。
さらに、Maxwellソルバの主流となることで、ニューラルネットワークのトレーニングと評価が、特定の問題に対して広くアクセス可能で、適切なものになる。
本稿では,識別ネットワークとして構成された深層ニューラルネットワークが,学習セットから学習し,高速サロゲート電磁ソルバとして動作することを示す。
また、深層生成ネットワークがデバイス分布の幾何学的特徴をどのように学習し、強固なグローバルオプティマイザとして機能するかについても検討する。
ネットワークトレーニングプロセス、異なるネットワーククラスとアーキテクチャのデライン化、次元の縮小など、フォトニクスのコンテキスト内で構成された基本的なデータサイエンスの概念についても論じる。
関連論文リスト
- Artificial Neural Networks for Photonic Applications: From Algorithms to Implementation [1.7371307928431834]
フォトニクスにおける人工ニューラルネットワークの応用に関するチュートリアルレビューは、幅広いオーディエンスを対象としている。
ここでは、これらの分野間のインターフェースにおける研究領域に注目し、各ドメイン固有の技術的詳細と全体的な明確さの間の適切なバランスを見つけようとしています。
論文 参考訳(メタデータ) (2024-08-02T08:22:49Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Deep Learning Meets Sparse Regularization: A Signal Processing
Perspective [17.12783792226575]
データに適合するように訓練されたニューラルネットワークの機能特性を特徴付ける数学的枠組みを提案する。
このフレームワークをサポートする主要な数学的ツールは、変換領域スパース正規化、計算トモグラフィーのラドン変換、近似理論である。
このフレームワークは、ニューラルネットワークトレーニングにおける重量減衰正則化の効果、ネットワークアーキテクチャにおけるスキップ接続と低ランク重量行列の使用、ニューラルネットワークにおける空間性の役割、そしてニューラルネットワークが高次元問題でうまく機能する理由を説明する。
論文 参考訳(メタデータ) (2023-01-23T17:16:21Z) - Experimentally realized in situ backpropagation for deep learning in
nanophotonic neural networks [0.7627023515997987]
私たちは、カスタムデザインの「フォトニックメッシュ」アクセラレーターをカスケードする、大量製造可能なシリコンフォトニックニューラルネットワークを設計します。
In situ backproagation を初めて示し、分類課題を解く。
本研究は、フォトニクス加速人工知能の新しいトレーニングパラダイムを、一般的なバックプロパゲーション手法の物理的類似に基づいて提案するものであることを示唆する。
論文 参考訳(メタデータ) (2022-05-17T17:13:50Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - Physics-informed ConvNet: Learning Physical Field from a Shallow Neural
Network [0.180476943513092]
マルチ物理システムのモデル化と予測は、避けられないデータ不足とノイズのために依然として課題である。
物理インフォームド・コンボリューション・ネットワーク(PICN)と呼ばれる新しいフレームワークは、CNNの観点から推奨されている。
PICNは物理インフォームド機械学習において、代替のニューラルネットワークソルバとなる可能性がある。
論文 参考訳(メタデータ) (2022-01-26T14:35:58Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - A deep learning theory for neural networks grounded in physics [2.132096006921048]
ニューロモルフィックアーキテクチャ上で大規模で高速で効率的なニューラルネットワークを構築するには、それらを実装および訓練するためのアルゴリズムを再考する必要がある。
私たちのフレームワークは、非常に幅広いモデル、すなわち状態やダイナミクスが変動方程式によって記述されるシステムに適用されます。
論文 参考訳(メタデータ) (2021-03-18T02:12:48Z) - Learning Contact Dynamics using Physically Structured Neural Networks [81.73947303886753]
ディープニューラルネットワークと微分方程式の接続を用いて、オブジェクト間の接触ダイナミクスを表現するディープネットワークアーキテクチャのファミリを設計する。
これらのネットワークは,ノイズ観測から不連続な接触事象をデータ効率良く学習できることを示す。
以上の結果から,タッチフィードバックの理想化形態は,この学習課題を扱いやすくするための重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2021-02-22T17:33:51Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。