論文の概要: Self-Normalizing Neural Network, Enabling One Shot Transfer Learning for
Modeling EDFA Wavelength Dependent Gain
- arxiv url: http://arxiv.org/abs/2308.02233v2
- Date: Sat, 21 Oct 2023 20:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 08:01:18.020462
- Title: Self-Normalizing Neural Network, Enabling One Shot Transfer Learning for
Modeling EDFA Wavelength Dependent Gain
- Title(参考訳): EDFA波長依存性ゲインのモデル化のための自己Normalizing Neural Network, One Shot Transfer Learning
- Authors: Agastya Raj, Zehao Wang, Frank Slyne, Tingjun Chen, Dan Kilper, Marco
Ruffini
- Abstract要約: 本稿では、半教師付き自己正規化ニューラルネットワークに基づいて、複数のEDFAの波長依存性の利得をモデル化する新しいMLフレームワークを提案する。
オープンアイルランドおよびCOSMOSテストベッドにおける22のEDFA実験は、異なるアンプタイプで操作しても高精度なトランスファー学習を示す。
- 参考スコア(独自算出の注目度): 10.342616156926987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel ML framework for modeling the wavelength-dependent gain of
multiple EDFAs, based on semi-supervised, self-normalizing neural networks,
enabling one-shot transfer learning. Our experiments on 22 EDFAs in Open
Ireland and COSMOS testbeds show high-accuracy transfer-learning even when
operated across different amplifier types.
- Abstract(参考訳): 本稿では,半教師付き自己正規化ニューラルネットワークに基づいて,複数のedfaの波長依存性利得をモデル化する新しいmlフレームワークを提案する。
オープンアイルランドおよびCOSMOSテストベッドにおける22のEDFA実験は、異なるアンプタイプで操作しても高精度なトランスファー学習を示す。
関連論文リスト
- Self-Supervised Learning for Multi-Channel Neural Transducer [3.045851438458641]
本稿では,wav2vec 2.0 フレームワークに基づくマルチチャネルエンドツーエンド ASR モデルの自己教師型学習手法について検討する。
我々は,遠距離フィールド内データセットの事前学習を行わないモデルと比較して,文字誤り率を66%削減した。
論文 参考訳(メタデータ) (2024-08-06T04:12:31Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Denoising Diffusion Autoencoders are Unified Self-supervised Learners [58.194184241363175]
本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,自己教師型学習者の統合であることを示す。
DDAEはすでに、補助エンコーダを使わずに、中間層内で線形分離可能な表現を強く学習している。
CIFAR-10 と Tiny-ImageNet の線形評価精度は95.9% と 50.0% である。
論文 参考訳(メタデータ) (2023-03-17T04:20:47Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Quantum Self-Supervised Learning [22.953284192004034]
対照的自己監督学習のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
ibmq_paris量子コンピュータ上の見えない画像を分類するために、最良の量子モデルを適用します。
論文 参考訳(メタデータ) (2021-03-26T18:00:00Z) - Federated Dropout Learning for Hybrid Beamforming With Spatial Path
Index Modulation In Multi-User mmWave-MIMO Systems [19.10321102094638]
SPIM-MIMOシステムにおけるビームフォーマー設計のためのモデルベースおよびモデルフリーフレームワークを紹介します。
提案手法は,最新のSPIM-MIMO法やmmWave-MIMO法よりも高いスペクトル効率を示す。
論文 参考訳(メタデータ) (2021-02-15T10:49:26Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Terahertz Pulse Shaping Using Diffractive Surfaces [6.895625925414448]
本稿では、任意のブロードバンドパルスを所望の光波形に変換するために使用する回折ネットワークを提案する。
結果はテラヘルツスペクトルにおける直接パルス整形の最初の実証となる。
この学習に基づく回折パルス工学フレームワークは、通信、超高速イメージング、分光などの幅広い応用を見出すことができる。
論文 参考訳(メタデータ) (2020-06-30T08:27:36Z) - Multimodal Generative Learning Utilizing Jensen-Shannon-Divergence [20.23920009396818]
本稿では,Jensen-Shannon分散を複数の分布に利用した,新しい,効率的な目的関数を提案する。
同時に、動的前駆体を介して一方向と関節の多モード後駆体を直接近似する。
広汎な実験では、教師なし・生成学習タスクにおける従来の研究と比較して、提案したmmJSDモデルの利点を実証する。
論文 参考訳(メタデータ) (2020-06-15T09:30:15Z) - Lipreading using Temporal Convolutional Networks [57.41253104365274]
現在の単語認識モデルは,残差ネットワークと双方向Gated Recurrent Unit層で構成されている。
このモデルの限界に対処し、その性能をさらに向上させる変更を提案する。
提案モデルでは,これらのデータセットにおいてそれぞれ1.2%と3.2%の絶対的な改善が得られた。
論文 参考訳(メタデータ) (2020-01-23T17:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。