論文の概要: Inverse Design of Grating Couplers Using the Policy Gradient Method from
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2107.00088v1
- Date: Wed, 30 Jun 2021 20:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 13:30:19.765230
- Title: Inverse Design of Grating Couplers Using the Policy Gradient Method from
Reinforcement Learning
- Title(参考訳): 強化学習によるポリシー勾配法によるグレーティングカプラの逆設計
- Authors: Sean Hooten, Thomas Van Vaerenbergh, Raymond G. Beausoleil
- Abstract要約: 本稿では,PHORCEDと呼ばれる強化学習におけるポリシー勾配法によって動機付けられた電磁装置の逆設計に関する概念実証手法を提案する。
本稿では,PHORCEDが局所勾配に基づく逆設計よりも優れたグラディングカプラ設計を実現することを示す。
- 参考スコア(独自算出の注目度): 0.4627023679353508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a proof-of-concept technique for the inverse design of
electromagnetic devices motivated by the policy gradient method in
reinforcement learning, named PHORCED (PHotonic Optimization using REINFORCE
Criteria for Enhanced Design). This technique uses a probabilistic generative
neural network interfaced with an electromagnetic solver to assist in the
design of photonic devices, such as grating couplers. We show that PHORCED
obtains better performing grating coupler designs than local gradient-based
inverse design via the adjoint method, while potentially providing faster
convergence over competing state-of-the-art generative methods. Furthermore, we
implement transfer learning with PHORCED, demonstrating that a neural network
trained to optimize 8$^\circ$ grating couplers can then be re-trained on
grating couplers with alternate scattering angles while requiring >$10\times$
fewer simulations than control cases.
- Abstract(参考訳): 本稿では、PHORCED(ReINFORCE Criteria for Enhanced Design)と呼ばれる強化学習におけるポリシー勾配法によって動機付けられた電磁装置の逆設計に関する概念実証手法を提案する。
この技術は、電磁分解器と接続された確率論的生成ニューラルネットワークを使用して、グラディングカプラのようなフォトニックデバイスの設計を支援する。
我々は,PHORCEDが局所勾配に基づく逆設計よりも優れたグラディングカプラ設計を実現するとともに,競合する最先端生成手法よりも高速な収束を実現する可能性を示した。
さらに、PHORCEDを用いてトランスファーラーニングを実装し、8$^\circ$グレーティングカプラを最適化するよう訓練されたニューラルネットワークが、制御ケースよりも10ドル以上のシミュレーションを必要としながら、交互に散乱角を持つグレーティングカプラで再トレーニングできることを実証した。
関連論文リスト
- Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Preconditioners for the Stochastic Training of Implicit Neural
Representations [30.92757082348805]
複雑な連続多次元信号をニューラルネットワークとして符号化する強力な手法として、暗黙の神経表現が登場した。
本稿では,様々な信号モダリティにまたがる実効性を示すために,対角プレコンディショナーを用いたトレーニングを提案する。
論文 参考訳(メタデータ) (2024-02-13T20:46:37Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Inverse deep learning methods and benchmarks for artificial
electromagnetic material design [8.47539037890124]
本稿では,AEM設計のためのディープラーニング逆法および非可逆および条件付き可逆ニューラルネットワークについて調査する。
提案手法は繰り返しシミュレーションの制約と容易に統合された計量によって導かれる。
問題がますます悪化するにつれて、境界損失(NA)を伴うニューラルアドジョイントがより高速に解を生成することが示される。
論文 参考訳(メタデータ) (2021-12-19T20:44:53Z) - GraDIRN: Learning Iterative Gradient Descent-based Energy Minimization
for Deformable Image Registration [9.684786294246749]
変形可能な画像登録を学習するためのGraDIRN(Gradient Descent-based Image Registration Network)を提案する。
GraDIRNは多分解能勾配降下エネルギー最小化に基づいている。
本手法は,学習可能なパラメータを少なく抑えながら,最先端の登録性能を実現することを実証する。
論文 参考訳(メタデータ) (2021-12-07T14:48:31Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Progressive Encoding for Neural Optimization [92.55503085245304]
メッシュ転送におけるppe層の能力と,そのアドバンテージを,現代の表面マッピング技術と比較した。
最も重要な点は, パラメタライズフリーな手法であり, 様々な対象形状表現に適用可能であることである。
論文 参考訳(メタデータ) (2021-04-19T08:22:55Z) - A Distributed Training Algorithm of Generative Adversarial Networks with
Quantized Gradients [8.202072658184166]
本稿では,量子化勾配を用いた分散GAN学習アルゴリズムDQGANを提案する。
この新しい方法は、OMDアルゴリズムと呼ばれる特定の単一マシンアルゴリズムに基づいてGANを訓練し、一般的な$delta$-approximate圧縮器を満たす任意の勾配圧縮手法に適用できる。
理論的には、DQGANアルゴリズムの1次定常点への非漸近収束を確立し、提案アルゴリズムが線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2020-10-26T06:06:43Z) - A Differential Game Theoretic Neural Optimizer for Training Residual
Networks [29.82841891919951]
本稿では、残差接続と畳み込み層の両方を受け入れる一般化微分動的プログラミング(DDP)ニューラルアーキテクチャを提案する。
得られた最適制御表現は、トレーニング残余ネットワークを、状態拡張システム上での協調的軌道最適化と解釈できるゲーム論的視点を許容する。
論文 参考訳(メタデータ) (2020-07-17T10:19:17Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。