論文の概要: A Transformer-Based Approach for Diagnosing Fault Cases in Optical Fiber Amplifiers
- arxiv url: http://arxiv.org/abs/2505.06245v1
- Date: Mon, 28 Apr 2025 07:57:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-18 22:55:23.162004
- Title: A Transformer-Based Approach for Diagnosing Fault Cases in Optical Fiber Amplifiers
- Title(参考訳): 光ファイバ増幅器の故障診断のための変圧器に基づく一手法
- Authors: Dominic Schneider, Lutz Rapp, Christoph Ament,
- Abstract要約: コンディションベースのモニタリング時系列データを用いて,光ファイバー増幅器の故障事例の診断を可能にする,トランスフォーマーに基づくディープラーニング手法を提案する。
モデルであるInverse Triple-Aspect Self-Attention Transformer (ITST)は、エンコーダ-デコーダアーキテクチャを使用し、エンコーダの3つの特徴抽出パス、デコーダのフィーチャエンジニアリングデータ、および自己アテンション機構を利用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A transformer-based deep learning approach is presented that enables the diagnosis of fault cases in optical fiber amplifiers using condition-based monitoring time series data. The model, Inverse Triple-Aspect Self-Attention Transformer (ITST), uses an encoder-decoder architecture, utilizing three feature extraction paths in the encoder, feature-engineered data for the decoder and a self-attention mechanism. The results show that ITST outperforms state-of-the-art models in terms of classification accuracy, which enables predictive maintenance for optical fiber amplifiers, reducing network downtimes and maintenance costs.
- Abstract(参考訳): コンディションベースのモニタリング時系列データを用いて,光ファイバー増幅器の故障事例の診断を可能にする,トランスフォーマーに基づくディープラーニング手法を提案する。
モデルであるInverse Triple-Aspect Self-Attention Transformer (ITST)は、エンコーダ-デコーダアーキテクチャを使用し、エンコーダの3つの特徴抽出パス、デコーダのフィーチャエンジニアリングデータ、および自己アテンション機構を利用する。
その結果,光ファイバー増幅器の予測保守が可能であり,ネットワークのダウンタイムやメンテナンスコストを低減できる。
関連論文リスト
- Sparse Low-Ranked Self-Attention Transformer for Remaining Useful Lifetime Prediction of Optical Fiber Amplifiers [0.0]
本稿では,新しい寿命予測手法としてSparse Low-ranked Self-Attention Transformer (SLAT)を提案する。
SLATはエンコーダ-デコーダアーキテクチャに基づいており、2つの並列動作エンコーダがセンサーと時間ステップの機能を抽出する。
注意行列と低ランクパラメトリゼーションにおけるスパーシティの実装は、過度な適合を減らし、一般化を増大させる。
論文 参考訳(メタデータ) (2024-09-22T09:48:45Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Fault diagnosis for three-phase PWM rectifier based on deep feedforward
network with transient synthetic features [0.0]
過渡的な合成特徴を持つディープフィードフォワードネットワークに基づく断層診断手法を提案する。
平均断層診断精度は、過渡的な合成断層データに対して97.85%に達する。
オンライン断層診断実験により,本手法が故障IGBTを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2022-11-01T02:32:20Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - A Robust and Explainable Data-Driven Anomaly Detection Approach For
Power Electronics [56.86150790999639]
本稿では,2つの異常検出・分類手法,すなわち行列プロファイルアルゴリズムと異常変換器を提案する。
行列プロファイルアルゴリズムは、ストリーミング時系列データにおけるリアルタイム異常を検出するための一般化可能なアプローチとして適している。
検知器の感度、リコール、検出精度を調整するために、一連のカスタムフィルタが作成され、追加される。
論文 参考訳(メタデータ) (2022-09-23T06:09:35Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - A novel Time-frequency Transformer and its Application in Fault
Diagnosis of Rolling Bearings [0.24214594180459362]
シーケンス処理における標準変換器の膨大な成功に触発された新しい時間周波数変換器(TFT)モデルを提案する。
本稿では,TFTに基づく新しいエンドツーエンドの故障診断フレームワークについて述べる。
論文 参考訳(メタデータ) (2021-04-19T06:53:31Z) - On the Sub-Layer Functionalities of Transformer Decoder [74.83087937309266]
トランスフォーマーをベースとしたデコーダは,ソースおよびターゲット言語からの情報をいかに活用するかを検討する。
これらの知見に基づき,各トランスフォーマーデコーダ層内の残フィードフォワードモジュールは,性能の低下を最小限に抑えられることを示した。
論文 参考訳(メタデータ) (2020-10-06T11:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。