論文の概要: Self-Normalizing Neural Network, Enabling One Shot Transfer Learning for
Modeling EDFA Wavelength Dependent Gain
- arxiv url: http://arxiv.org/abs/2308.02233v2
- Date: Sat, 21 Oct 2023 20:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 08:01:18.020462
- Title: Self-Normalizing Neural Network, Enabling One Shot Transfer Learning for
Modeling EDFA Wavelength Dependent Gain
- Title(参考訳): EDFA波長依存性ゲインのモデル化のための自己Normalizing Neural Network, One Shot Transfer Learning
- Authors: Agastya Raj, Zehao Wang, Frank Slyne, Tingjun Chen, Dan Kilper, Marco
Ruffini
- Abstract要約: 本稿では、半教師付き自己正規化ニューラルネットワークに基づいて、複数のEDFAの波長依存性の利得をモデル化する新しいMLフレームワークを提案する。
オープンアイルランドおよびCOSMOSテストベッドにおける22のEDFA実験は、異なるアンプタイプで操作しても高精度なトランスファー学習を示す。
- 参考スコア(独自算出の注目度): 10.342616156926987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel ML framework for modeling the wavelength-dependent gain of
multiple EDFAs, based on semi-supervised, self-normalizing neural networks,
enabling one-shot transfer learning. Our experiments on 22 EDFAs in Open
Ireland and COSMOS testbeds show high-accuracy transfer-learning even when
operated across different amplifier types.
- Abstract(参考訳): 本稿では,半教師付き自己正規化ニューラルネットワークに基づいて,複数のedfaの波長依存性利得をモデル化する新しいmlフレームワークを提案する。
オープンアイルランドおよびCOSMOSテストベッドにおける22のEDFA実験は、異なるアンプタイプで操作しても高精度なトランスファー学習を示す。
関連論文リスト
- DiffiT: Diffusion Vision Transformers for Image Generation [94.50195596375316]
Diffusion Vision Transformers (DiffiT) はU字型エンコーダとデコーダを備えたハイブリッド階層アーキテクチャである。
DiffiTは、高忠実度画像を生成するのに驚くほど効果的です。
潜在領域では、DiffiTはImageNet-256データセットで1.73の新しいSOTA FIDスコアを達成している。
論文 参考訳(メタデータ) (2023-12-04T18:57:01Z) - Denoising Diffusion Autoencoders are Unified Self-supervised Learners [58.194184241363175]
本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,自己教師型学習者の統合であることを示す。
DDAEはすでに、補助エンコーダを使わずに、中間層内で線形分離可能な表現を強く学習している。
CIFAR-10 と Tiny-ImageNet の線形評価精度は95.9% と 50.0% である。
論文 参考訳(メタデータ) (2023-03-17T04:20:47Z) - Photonic Differential Privacy with Direct Feedback Alignment [66.61196212740359]
本稿では,光乱射影の固有雑音を利用して,微分プライベートなDFA機構を構築する方法について述べる。
本研究は,エンドタスクの確固たるパフォーマンスを実現するための学習手順の実証実験を行う。
論文 参考訳(メタデータ) (2021-06-07T14:18:01Z) - Invertible Surrogate Models: Joint surrogate modelling and
reconstruction of Laser-Wakefield Acceleration by invertible neural networks [55.41644538483948]
可逆ニューラルネットワークは、機械学習の最近の技術である。
我々は、レーザープラズマ加速器(iLWFA)に関わる物理学の複雑な前方シミュレーションを近似する可逆サロゲートモデルを導入する。
論文 参考訳(メタデータ) (2021-06-01T12:26:10Z) - ChaRRNets: Channel Robust Representation Networks for RF Fingerprinting [0.0]
RFフィンガープリントのための複雑値畳み込みニューラルネットワーク(CNN)を提案する。
我々は,深層学習(dl)技術を用いた無線iotデバイスの指紋認証の問題に注目する。
論文 参考訳(メタデータ) (2021-05-08T03:03:21Z) - Quantum Self-Supervised Learning [22.953284192004034]
対照的自己監督学習のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
ibmq_paris量子コンピュータ上の見えない画像を分類するために、最良の量子モデルを適用します。
論文 参考訳(メタデータ) (2021-03-26T18:00:00Z) - Federated Dropout Learning for Hybrid Beamforming With Spatial Path
Index Modulation In Multi-User mmWave-MIMO Systems [19.10321102094638]
SPIM-MIMOシステムにおけるビームフォーマー設計のためのモデルベースおよびモデルフリーフレームワークを紹介します。
提案手法は,最新のSPIM-MIMO法やmmWave-MIMO法よりも高いスペクトル効率を示す。
論文 参考訳(メタデータ) (2021-02-15T10:49:26Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Terahertz Pulse Shaping Using Diffractive Surfaces [6.895625925414448]
本稿では、任意のブロードバンドパルスを所望の光波形に変換するために使用する回折ネットワークを提案する。
結果はテラヘルツスペクトルにおける直接パルス整形の最初の実証となる。
この学習に基づく回折パルス工学フレームワークは、通信、超高速イメージング、分光などの幅広い応用を見出すことができる。
論文 参考訳(メタデータ) (2020-06-30T08:27:36Z) - Multimodal Generative Learning Utilizing Jensen-Shannon-Divergence [20.23920009396818]
本稿では,Jensen-Shannon分散を複数の分布に利用した,新しい,効率的な目的関数を提案する。
同時に、動的前駆体を介して一方向と関節の多モード後駆体を直接近似する。
広汎な実験では、教師なし・生成学習タスクにおける従来の研究と比較して、提案したmmJSDモデルの利点を実証する。
論文 参考訳(メタデータ) (2020-06-15T09:30:15Z) - Lipreading using Temporal Convolutional Networks [57.41253104365274]
現在の単語認識モデルは,残差ネットワークと双方向Gated Recurrent Unit層で構成されている。
このモデルの限界に対処し、その性能をさらに向上させる変更を提案する。
提案モデルでは,これらのデータセットにおいてそれぞれ1.2%と3.2%の絶対的な改善が得られた。
論文 参考訳(メタデータ) (2020-01-23T17:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。