論文の概要: Prion-ViT: Prions-Inspired Vision Transformers for Temperature prediction with Specklegrams
- arxiv url: http://arxiv.org/abs/2411.05836v1
- Date: Wed, 06 Nov 2024 12:28:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:07:26.193398
- Title: Prion-ViT: Prions-Inspired Vision Transformers for Temperature prediction with Specklegrams
- Title(参考訳): Prion-ViT:スペックルグラムによる温度予測のためのプリオンインスパイアされた視覚変換器
- Authors: Abhishek Sebastian, Pragna R,
- Abstract要約: 本研究では,プリオン・ビジョン・トランスフォーマー(Prion-ViT)モデルを提案する。
永続的なメモリ状態を活用することで、Prion-ViTは複数の層にまたがる重要な機能を効果的に保持し、伝播し、予測精度を向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Fiber Specklegram Sensors (FSS) are widely used in environmental monitoring due to their high sensitivity to temperature fluctuations, yet the complex, nonlinear nature of specklegram data poses significant challenges for conventional predictive models. This study introduces a novel Prion-Vision Transformer (Prion-ViT) model, inspired by biological prion memory mechanisms, to enhance long-term dependency modeling for accurate temperature prediction using FSS data. By leveraging a persistent memory state, the Prion-ViT effectively retains and propagates essential features across multiple layers, thereby improving prediction accuracy and reducing mean absolute error (MAE) to "0.52 Degree Celsius" outperforming traditional models like ResNet, Inception Net V2, and existing transformer-based architectures. The study addresses the specific challenges of applying Vision Transformers (ViTs) to FSS data and demonstrates that the prion-inspired memory mechanism offers a robust solution for capturing complex optical interference patterns in specklegrams. These findings establish Prion-ViT as a promising advancement for real-time industrial temperature monitoring applications, with potential applicability to other optical sensing domains.
- Abstract(参考訳): ファイバスペックルグラムセンサ(FSS)は、温度変動に対する感度が高いため、環境モニタリングに広く用いられているが、スペックルグラムデータの複雑な非線形性質は、従来の予測モデルにとって大きな課題となっている。
本研究では,生体プリオンメモリ機構にインスパイアされた新しいプリオン・ビジョン・トランスフォーマ(Prion-ViT)モデルを導入し,FSSデータを用いた正確な温度予測のための長期依存性モデリングを強化する。
永続的なメモリ状態を活用することで、Prion-ViTは複数の層にまたがる重要な機能を効果的に保持し、伝播し、予測精度を改善し、平均絶対誤差(MAE)を"0.52 Degree Celsius"に低減し、ResNet、Inception Net V2、および既存のトランスフォーマーベースのアーキテクチャよりも優れた性能を発揮する。
この研究は、視覚変換器(ViT)をFSSデータに適用する際の特定の課題に対処し、プリオンにインスパイアされたメモリ機構が、スペックルグラム内の複雑な光干渉パターンをキャプチャするための堅牢なソリューションを提供することを示した。
これらの知見は、Prion-ViTを、他の光学センサー領域に適用可能な、リアルタイム産業用温度監視アプリケーションの将来的な進歩として確立している。
関連論文リスト
- Visual Fourier Prompt Tuning [63.66866445034855]
本稿では,大規模なトランスフォーマーモデルに適用するための汎用的で効果的な方法として,Visual Fourier Prompt Tuning (VFPT)法を提案する。
提案手法では,高速フーリエ変換を即時埋め込みに取り入れ,空間領域情報と周波数領域情報の両方を調和的に検討する。
提案手法は,2つのベンチマークにおいて,現状のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-02T18:18:35Z) - Unveil Benign Overfitting for Transformer in Vision: Training Dynamics, Convergence, and Generalization [88.5582111768376]
本研究では, ソフトマックスを用いた自己保持層と, 勾配勾配下での完全連結層からなるトランスフォーマーの最適化について検討した。
この結果から,データモデルにおける信号対雑音比に基づいて,小さなテストエラー位相と大規模なテストエラー状態とを区別できるシャープ条件を確立した。
論文 参考訳(メタデータ) (2024-09-28T13:24:11Z) - Causal Transformer for Fusion and Pose Estimation in Deep Visual Inertial Odometry [1.2289361708127877]
深部視覚-慣性眼振におけるポーズ推定のための因果的視覚-慣性融合変換器 (VIFT) を提案する。
提案手法はエンドツーエンドのトレーニングが可能であり,単眼カメラとIMUのみを必要とする。
論文 参考訳(メタデータ) (2024-09-13T12:21:25Z) - Residual-based Attention Physics-informed Neural Networks for Spatio-Temporal Ageing Assessment of Transformers Operated in Renewable Power Plants [0.6223528900192875]
本稿では,変圧器の巻線温度と経年変化に関する時間モデルを紹介する。
物理ベースの偏微分方程式とデータ駆動ニューラルネットワークを用いる。
フローティング太陽光発電プラントで動作する配電変圧器を用いて, 実験結果を検証した。
論文 参考訳(メタデータ) (2024-05-10T12:48:57Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Environmental Sensor Placement with Convolutional Gaussian Neural
Processes [65.13973319334625]
センサーは、特に南極のような遠隔地において、その測定の情報量が最大になるように配置することは困難である。
確率論的機械学習モデルは、予測の不確実性を最大限に低減するサイトを見つけることによって、情報的センサ配置を提案することができる。
本稿では,これらの問題に対処するために,畳み込み型ガウスニューラルプロセス(ConvGNP)を提案する。
論文 参考訳(メタデータ) (2022-11-18T17:25:14Z) - GTrans: Spatiotemporal Autoregressive Transformer with Graph Embeddings
for Nowcasting Extreme Events [5.672898304129217]
本稿では,データ特徴をグラフ埋め込みに変換し,テンポラルダイナミクスをトランスフォーマーモデルで予測する時間モデルGTransを提案する。
我々の実験によると、GTransは空間的および時間的ダイナミクスをモデル化し、データセットの極端なイベントを放送することができる。
論文 参考訳(メタデータ) (2022-01-18T03:26:24Z) - Learning Generative Vision Transformer with Energy-Based Latent Space
for Saliency Prediction [51.80191416661064]
本稿では,有意な物体検出に先立って,潜伏変数を持つ新しい視覚変換器を提案する。
ビジョントランスネットワークとエネルギーベース先行モデルの両方は、マルコフ連鎖モンテカルロによる最大推定を通じて共同で訓練される。
生成型視覚変換器により、画像から容易に画素単位の不確実性マップを得ることができ、画像から唾液濃度を予測するためのモデル信頼度を示す。
論文 参考訳(メタデータ) (2021-12-27T06:04:33Z) - Fine-tuning Vision Transformers for the Prediction of State Variables in
Ising Models [2.9005223064604078]
Transformerは、スタックされた注意とポイントワイドで完全に接続されたレイヤで構成される最先端のディープラーニングモデルである。
本研究では、2次元イジングモデルシミュレーションの状態変数を予測するために視覚変換器(ViT)を適用した。
論文 参考訳(メタデータ) (2021-09-28T00:23:31Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。