論文の概要: Prion-ViT: Prions-Inspired Vision Transformers for Temperature prediction with Specklegrams
- arxiv url: http://arxiv.org/abs/2411.05836v3
- Date: Sat, 25 Jan 2025 12:01:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:50:12.877936
- Title: Prion-ViT: Prions-Inspired Vision Transformers for Temperature prediction with Specklegrams
- Title(参考訳): Prion-ViT:スペックルグラムによる温度予測のためのプリオンインスパイアされた視覚変換器
- Authors: Abhishek Sebastian, Pragna R, Sonaa Rajagopal, Muralikrishnan Mani,
- Abstract要約: 本研究では,プリオンインスパイアされたビジョントランスモデルであるPrion-ViTを導入し,FSSデータを用いた長期依存性モデリングと温度予測精度を向上させる。
Prion-ViTは永続的なメモリ状態を利用して、レイヤ間のキー機能の保持と伝搬を行い、平均絶対誤差(MAE)を0.71$circ$Cに削減し、ResNet、Inception Net V2、Standard Vision Transformersなどのモデルよりも優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Fiber Specklegram Sensors (FSS) are vital for environmental monitoring due to their high temperature sensitivity, but their complex data poses challenges for predictive models. This study introduces Prion-ViT, a prion-inspired Vision Transformer model, inspired by biological prion memory mechanisms, to improve long-term dependency modeling and temperature prediction accuracy using FSS data. Prion-ViT leverages a persistent memory state to retain and propagate key features across layers, reducing mean absolute error (MAE) to 0.71$^\circ$C and outperforming models like ResNet, Inception Net V2, and Standard Vision Transformers. This paper also discusses Explainable AI (XAI) techniques, providing a perspective on specklegrams through attention and saliency maps, which highlight key regions contributing to predictions
- Abstract(参考訳): 繊維スペックルグラムセンサ(FSS)はその高温感度のために環境モニタリングに不可欠であるが、複雑なデータは予測モデルに課題をもたらす。
本研究では,生体プリオンメモリ機構にインスパイアされたプリオンインスパイアされたビジョントランスフォーマモデルであるプリオン-ViTを導入し,FSSデータを用いた長期依存性モデリングと温度予測精度の向上を図る。
Prion-ViTは永続的なメモリ状態を利用して、レイヤ間のキー機能の保持と伝搬を行い、平均絶対誤差(MAE)を0.71$^\circ$Cに削減し、ResNet、Inception Net V2、Standard Vision Transformersなどのモデルよりも優れたパフォーマンスを実現している。
本稿は,注目度マップとサリエンシマップによるスペックルグラムの視点を提供する,説明可能なAI(XAI)技術についても論じる。
関連論文リスト
- Residual-based Attention Physics-informed Neural Networks for Spatio-Temporal Ageing Assessment of Transformers Operated in Renewable Power Plants [0.6223528900192875]
本稿では,変圧器の巻線温度と経年変化に関する時間モデルを紹介する。
物理ベースの偏微分方程式とデータ駆動ニューラルネットワークを用いる。
フローティング太陽光発電プラントで動作する配電変圧器を用いて, 実験結果を検証した。
論文 参考訳(メタデータ) (2024-05-10T12:48:57Z) - Denoising Vision Transformers [43.03068202384091]
本稿では、DVT(Denoising Vision Transformers)と呼ばれる2段階のDenoisingアプローチを提案する。
第1段階では、画像ごとのニューラルネットワークとの横断的な特徴整合を強制することにより、位置的アーティファクトによって汚染されたものからクリーンな特徴を分離する。
第2段階では、クリーンな特徴を生のViT出力から予測するために軽量なトランスフォーマーブロックを訓練し、クリーンな特徴の導出推定を監督として活用する。
論文 参考訳(メタデータ) (2024-01-05T18:59:52Z) - TSViT: A Time Series Vision Transformer for Fault Diagnosis [2.710064390178205]
本稿では,効率的な故障診断のための時系列ビジョン変換器(TSViT)を提案する。
TSViTは畳み込み層を組み込み、振動信号から局所的な特徴を抽出する。
TSViTは2つのテストセットで前例のない平均精度を達成し、もう1つのテストセットで99.99%を達成している。
論文 参考訳(メタデータ) (2023-11-12T18:16:48Z) - 2-D SSM: A General Spatial Layer for Visual Transformers [79.4957965474334]
コンピュータビジョンの中心的な目的は、適切な2次元帰納バイアスを持つモデルを設計することである。
多次元状態空間モデルの表現的変動を利用する。
本稿では,効率的なパラメータ化,高速化計算,適切な正規化方式を提案する。
論文 参考訳(メタデータ) (2023-06-11T09:41:37Z) - Environmental Sensor Placement with Convolutional Gaussian Neural
Processes [65.13973319334625]
センサーは、特に南極のような遠隔地において、その測定の情報量が最大になるように配置することは困難である。
確率論的機械学習モデルは、予測の不確実性を最大限に低減するサイトを見つけることによって、情報的センサ配置を提案することができる。
本稿では,これらの問題に対処するために,畳み込み型ガウスニューラルプロセス(ConvGNP)を提案する。
論文 参考訳(メタデータ) (2022-11-18T17:25:14Z) - Improving Vision Transformers by Revisiting High-frequency Components [106.7140968644414]
視覚変換器(ViT)モデルは,CNNモデルよりも画像の高周波成分の捕捉に効果が低いことを示す。
本稿では,画像の高周波成分を直接補うHATを提案する。
HAT は様々な ViT モデルの性能を継続的に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-03T05:16:51Z) - Learning Generative Vision Transformer with Energy-Based Latent Space
for Saliency Prediction [51.80191416661064]
本稿では,有意な物体検出に先立って,潜伏変数を持つ新しい視覚変換器を提案する。
ビジョントランスネットワークとエネルギーベース先行モデルの両方は、マルコフ連鎖モンテカルロによる最大推定を通じて共同で訓練される。
生成型視覚変換器により、画像から容易に画素単位の不確実性マップを得ることができ、画像から唾液濃度を予測するためのモデル信頼度を示す。
論文 参考訳(メタデータ) (2021-12-27T06:04:33Z) - PhysFormer: Facial Video-based Physiological Measurement with Temporal
Difference Transformer [55.936527926778695]
近年のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙なrの手がかりのマイニングに重点を置いている。
本稿では,エンドツーエンドのビデオトランスをベースとしたアーキテクチャであるPhysFormerを提案する。
論文 参考訳(メタデータ) (2021-11-23T18:57:11Z) - Fine-tuning Vision Transformers for the Prediction of State Variables in
Ising Models [2.9005223064604078]
Transformerは、スタックされた注意とポイントワイドで完全に接続されたレイヤで構成される最先端のディープラーニングモデルである。
本研究では、2次元イジングモデルシミュレーションの状態変数を予測するために視覚変換器(ViT)を適用した。
論文 参考訳(メタデータ) (2021-09-28T00:23:31Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。