論文の概要: OL-Transformer: A Fast and Universal Surrogate Simulator for Optical
Multilayer Thin Film Structures
- arxiv url: http://arxiv.org/abs/2305.11984v1
- Date: Fri, 19 May 2023 20:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 01:37:31.459388
- Title: OL-Transformer: A Fast and Universal Surrogate Simulator for Optical
Multilayer Thin Film Structures
- Title(参考訳): OL変換器:光多層膜構造のための高速で普遍的なサロゲートシミュレータ
- Authors: Taigao Ma, Haozhu Wang, L. Jay Guo
- Abstract要約: 本稿では,巨大構造物の普遍的サロゲートシミュレータとして機能するOpto-Layer Transformerを提案する。
我々のモデルは、最大1025ドルの異なる多層構造に対して正確な反射スペクトルと透過スペクトルを予測できる。
- 参考スコア(独自算出の注目度): 1.2891210250935143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based methods have recently been established as fast and
accurate surrogate simulators for optical multilayer thin film structures.
However, existing methods only work for limited types of structures with
different material arrangements, preventing their applications towards diverse
and universal structures. Here, we propose the Opto-Layer (OL) Transformer to
act as a universal surrogate simulator for enormous types of structures.
Combined with the technique of structure serialization, our model can predict
accurate reflection and transmission spectra for up to $10^{25}$ different
multilayer structures, while still achieving a six-fold time speedup compared
to physical solvers. Further investigation reveals that the general learning
ability comes from the fact that our model first learns the physical embeddings
and then uses the self-attention mechanism to capture the hidden relationship
of light-matter interaction between each layer.
- Abstract(参考訳): 近年,光多層膜構造のための高速高精度サロゲートシミュレータとして深層学習法が確立されている。
しかし、既存の手法は素材配置が異なる限られた種類の構造のみに対応し、多様な普遍的な構造への応用を妨げている。
本稿では,巨大構造体に対する普遍的なサロゲートシミュレータとして機能するOpto-Layer (OL) Transformerを提案する。
構造シリアライゼーションの手法と組み合わせることで,物理解法に比べて6倍の高速化を実現しつつ,最大10〜25ドル程度の異なる多層構造に対して,正確な反射スペクトルと透過スペクトルを予測できる。
さらに,本モデルでは,まず物理埋め込みを学習し,自己認識機構を用いて各層間の光・光相互作用の隠れた関係を捉えることにより,一般学習能力が向上することを明らかにした。
関連論文リスト
- Provably Transformers Harness Multi-Concept Word Semantics for Efficient In-Context Learning [53.685764040547625]
トランスフォーマーベースの大規模言語モデル(LLM)は、卓越した創造力と出現能力を示している。
この研究は、トランスフォーマーが単語のマルチコンセプトセマンティクスをどのように活用し、強力なICLと優れたアウト・オブ・ディストリビューションICL能力を実現するかを示すための数学的解析を提供する。
論文 参考訳(メタデータ) (2024-11-04T15:54:32Z) - What Does It Mean to Be a Transformer? Insights from a Theoretical Hessian Analysis [8.008567379796666]
Transformerアーキテクチャは、間違いなくディープラーニングに革命をもたらした。
中心となる注意ブロックは、ディープラーニングにおける他のほとんどのアーキテクチャコンポーネントと形式と機能の違いです。
これらの外向きの表現の背後にある根本原因と、それらを管理する正確なメカニズムは、まだ理解されていないままである。
論文 参考訳(メタデータ) (2024-10-14T18:15:02Z) - Fast and Reliable Probabilistic Reflectometry Inversion with Prior-Amortized Neural Posterior Estimation [73.81105275628751]
リフレクションメトリデータと互換性のある全ての構造を見つけることは、標準アルゴリズムでは計算が禁止される。
この信頼性の欠如に対処するため,確率論的深層学習法を用いて,現実的な構造を数秒で識別する。
提案手法は,シミュレーションに基づく推論と新しい適応型事前推定を併用する。
論文 参考訳(メタデータ) (2024-07-26T10:29:16Z) - How Do Transformers Learn In-Context Beyond Simple Functions? A Case
Study on Learning with Representations [98.7450564309923]
本稿では、より複雑なシナリオにおける文脈内学習(ICL)の理解を、表現を用いた学習で研究する。
合成文内学習問題を合成構造を用いて構築し、ラベルは複雑なが固定された表現関数によって入力に依存する。
理論的には、そのようなアルゴリズムを軽度な深さと大きさでほぼ実装するトランスフォーマーの存在を示す。
論文 参考訳(メタデータ) (2023-10-16T17:40:49Z) - A Hierarchical Architecture for Neural Materials [13.144139872006287]
我々は新しいレベルの精度を提供するニューラルな外観モデルを導入する。
インセプションベースのコアネットワーク構造は、複数のスケールで素材の外観をキャプチャする。
入力を周波数空間にエンコードし、勾配に基づく損失を導入し、学習フェーズの進行に適応させる。
論文 参考訳(メタデータ) (2023-07-19T17:00:45Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Virtual twins of nonlinear vibrating multiphysics microstructures:
physics-based versus deep learning-based approaches [0.0]
深層学習手法を応用して,精度,効率的,リアルタイムな縮小順序モデルを生成する。
提案手法の信頼性を,マイクロミラー,アーチ,ジャイロスコープで広範囲に検証した。
電気メカニカルジャイロスコープに対処することにより、非侵入的深層学習アプローチが複雑な多物理問題に容易に一般化できることが示される。
論文 参考訳(メタデータ) (2022-05-12T07:40:35Z) - Disentangling multiple scattering with deep learning: application to
strain mapping from electron diffraction patterns [48.53244254413104]
我々は、高非線形電子回折パターンを定量的構造因子画像に変換するために、FCU-Netと呼ばれるディープニューラルネットワークを実装した。
結晶構造の異なる組み合わせを含む20,000以上のユニークな動的回折パターンを用いてFCU-Netを訓練した。
シミュレーションされた回折パターンライブラリ、FCU-Netの実装、訓練されたモデルの重み付けは、オープンソースリポジトリで自由に利用可能です。
論文 参考訳(メタデータ) (2022-02-01T03:53:39Z) - TMM-Fast: A Transfer Matrix Computation Package for Multilayer Thin-Film
Optimization [62.997667081978825]
先進的な薄膜構造は、厚みの異なる複数の材料と多数の層から構成される。
複数の変数を持つ複雑な薄膜構造の設計と最適化は、まだ活発な研究が続けられている計算的に重い問題である。
我々は,多層膜を透過する波長と入射角度の異なる光の反射と透過の並列計算を可能にするPythonパッケージTMM-Fastを提案する。
論文 参考訳(メタデータ) (2021-11-24T14:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。