論文の概要: A Grey-box Launch-profile Aware Model for C+L Band Raman Amplification
- arxiv url: http://arxiv.org/abs/2206.12416v1
- Date: Fri, 24 Jun 2022 02:07:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 15:33:44.285339
- Title: A Grey-box Launch-profile Aware Model for C+L Band Raman Amplification
- Title(参考訳): C+Lバンドラマン増幅のためのグレイボックス起動認識モデル
- Authors: Yihao Zhang, Xiaomin Liu, Yichen Liu, Lilin Yi, Weisheng Hu, Qunbi
Zhuge
- Abstract要約: ニューラルネットワーク(NN)と線形回帰に基づく3段階モデリング手法を提案する。
純粋NN法と比較して高い精度、少ないデータ要求、低い計算複雑性がシミュレーションによって示される。
- 参考スコア(独自算出の注目度): 7.916888813895724
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Based on the physical features of Raman amplification, we propose a
three-step modelling scheme based on neural networks (NN) and linear
regression. Higher accuracy, less data requirements and lower computational
complexity are demonstrated through simulations compared with the pure NN-based
method.
- Abstract(参考訳): ラマン増幅の物理的特徴に基づいて,ニューラルネットワーク(nn)と線形回帰に基づく3段階モデリング手法を提案する。
純粋NN法と比較して高い精度、少ないデータ要求、低い計算複雑性がシミュレーションによって示される。
関連論文リスト
- The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Consistency Models for Scalable and Fast Simulation-Based Inference [1.907072234794597]
CMPEは,スケーラブルで高速でアモータイズされたニューラルネットワークのための新しい自由形式の条件付きサンプルである。
基本的に連続的な確率フローを蒸留し、制約のないアーキテクチャで高速な数発の推論を可能にする。
ハイ次元ベイズ・デノナイジング実験において競争性能を達成し,腫瘍球状成長のマルチスケールモデルの推定を行う。
論文 参考訳(メタデータ) (2023-12-09T02:14:12Z) - Git Re-Basin: Merging Models modulo Permutation Symmetries [3.5450828190071655]
提案手法は,大規模ネットワークに適合する簡単なアルゴリズムを実例で示す。
我々は、独立に訓練されたモデル間のゼロモード接続の最初のデモ(私たちの知る限り)を実演する。
また、線形モード接続仮説の欠点についても論じる。
論文 参考訳(メタデータ) (2022-09-11T10:44:27Z) - Exploiting Spline Models for the Training of Fully Connected Layers in
Neural Network [0.0]
人工ニューラルネットワーク(ANN)の最も基本的なモジュールの1つである完全連結(FC)層は、しばしば訓練が困難で非効率であると考えられている。
fc層を訓練することの難しさを緩和するスプラインベースアプローチを提案する。
提案手法は計算コストを低減し,fc層の収束を加速し,モデルの解釈可能性を大幅に向上させる。
論文 参考訳(メタデータ) (2021-02-12T14:36:55Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - The Neural Tangent Kernel in High Dimensions: Triple Descent and a
Multi-Scale Theory of Generalization [34.235007566913396]
現代のディープラーニングモデルでは、トレーニングデータに適合するために必要なパラメータよりもはるかに多くのパラメータが採用されている。
この予期せぬ振る舞いを記述するための新たなパラダイムは、エンファンダブル降下曲線(英語版)である。
本稿では,勾配降下を伴う広帯域ニューラルネットワークの挙動を特徴付けるニューラル・タンジェント・カーネルを用いた一般化の高精度な高次元解析を行う。
論文 参考訳(メタデータ) (2020-08-15T20:55:40Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Neural Splines: Fitting 3D Surfaces with Infinitely-Wide Neural Networks [61.07202852469595]
本稿では,無限幅浅部ReLUネットワークから生じるランダムな特徴カーネルをベースとした3次元表面再構成手法であるNeural Splinesを提案する。
提案手法は,最近のニューラルネットワーク技術より優れ,ポアソン表面再構成に広く用いられている。
論文 参考訳(メタデータ) (2020-06-24T14:54:59Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。