論文の概要: Application of Graph Based Vision Transformers Architectures for Accurate Temperature Prediction in Fiber Specklegram Sensors
- arxiv url: http://arxiv.org/abs/2511.14792v1
- Date: Sat, 15 Nov 2025 07:56:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.45168
- Title: Application of Graph Based Vision Transformers Architectures for Accurate Temperature Prediction in Fiber Specklegram Sensors
- Title(参考訳): ファイバースペックルグラムセンサの高精度温度予測へのグラフベース視覚変換器アーキテクチャの適用
- Authors: Abhishek Sebastian,
- Abstract要約: 本研究は,0から120セルシウスの範囲のスペックルグラムデータから温度を予測するためのトランスフォーマーアーキテクチャを用いて検討した。
その結果、ViTは1.15の平均絶対誤差(MAE)を達成し、CNNのような従来のモデルを上回った。
この研究には、アテンションマップやサリエンシマップなど、説明可能なAI(XAI)技術が組み込まれ、トランスフォーマーモデルの意思決定プロセスに関する洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fiber Specklegram Sensors (FSS) are highly effective for environmental monitoring, particularly for detecting temperature variations. However, the nonlinear nature of specklegram data presents significant challenges for accurate temperature prediction. This study investigates the use of transformer-based architectures, including Vision Transformers (ViTs), Swin Transformers, and emerging models such as Learnable Importance Non-Symmetric Attention Vision Transformers (LINA-ViT) and Multi-Adaptive Proximity Vision Graph Attention Transformers (MAP-ViGAT), to predict temperature from specklegram data over a range of 0 to 120 Celsius. The results show that ViTs achieved a Mean Absolute Error (MAE) of 1.15, outperforming traditional models such as CNNs. GAT-ViT and MAP-ViGAT variants also demonstrated competitive accuracy, highlighting the importance of adaptive attention mechanisms and graph-based structures in capturing complex modal interactions and phase shifts in specklegram data. Additionally, this study incorporates Explainable AI (XAI) techniques, including attention maps and saliency maps, to provide insights into the decision-making processes of the transformer models, improving interpretability and transparency. These findings establish transformer architectures as strong benchmarks for optical fiber-based temperature sensing and offer promising directions for industrial monitoring and structural health assessment applications.
- Abstract(参考訳): ファイバスペックルグラムセンサ(FSS)は環境モニタリング、特に温度変動の検出に非常に有効である。
しかし、スペックルグラムデータの非線形性質は、正確な温度予測に重大な課題をもたらす。
本研究では,視覚変換器 (ViT) やスイニング変換器 (Swin Transformer) などのトランスフォーマーアーキテクチャや,0から120セルシウスの範囲のスペックルグラムデータから温度を予測するために,Learningable Importance Non-Symmetric Attention Vision Transformer (LINA-ViT) やMulti-Adaptive Proximity Vision Graph Attention Transformer (MAP-ViGAT) などの新しいモデルを用いた。
その結果、ViTは1.15の平均絶対誤差(MAE)を達成し、CNNのような従来のモデルを上回った。
GAT-ViTとMAP-ViGATも競合精度を示し、複雑なモーダル相互作用とスペックルグラムデータの位相シフトを捉える上で、適応的な注意機構とグラフベースの構造の重要性を強調した。
さらに、この研究では、アテンションマップやサリエンシマップなど、説明可能なAI(XAI)技術を導入し、トランスフォーマーモデルの意思決定プロセスに関する洞察を提供し、解釈性と透明性を向上させる。
これらの知見は、光ファイバーを用いた温度センサの強力なベンチマークとしてトランスフォーマーアーキテクチャを確立し、産業モニタリングや構造的健康評価への応用に有望な方向性を提供する。
関連論文リスト
- Benchmarking Vision Transformers and CNNs for Thermal Photovoltaic Fault Detection with Explainable AI Validation [0.0]
本研究では,熱PV故障検出のための畳み込みニューラルネットワーク(ResNet-18,EfficientNet-B0)と視覚変換器(ViT-Tiny,Swin-Tiny)を系統的に比較した。
正常な動作にまたがる2万枚の赤外線画像と11の断層カテゴリの評価により,Swin Transformerが最も高い性能を示した。
XRAI分析では、細胞欠陥の局所化ホットスポット、ダイオード故障の線形熱経路、植生陰影の熱境界など、物理的に意味のある特徴を学習する。
論文 参考訳(メタデータ) (2025-09-08T08:38:53Z) - Prion-ViT: Prions-Inspired Vision Transformers for Temperature prediction with Specklegrams [0.0]
本研究では,プリオンインスパイアされたビジョントランスモデルであるPrion-ViTを導入し,FSSデータを用いた長期依存性モデリングと温度予測精度を向上させる。
Prion-ViTは永続的なメモリ状態を利用して、レイヤ間のキー機能の保持と伝搬を行い、平均絶対誤差(MAE)を0.71$circ$Cに削減し、ResNet、Inception Net V2、Standard Vision Transformersなどのモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-11-06T12:28:26Z) - Unveil Benign Overfitting for Transformer in Vision: Training Dynamics, Convergence, and Generalization [88.5582111768376]
本研究では, ソフトマックスを用いた自己保持層と, 勾配勾配下での完全連結層からなるトランスフォーマーの最適化について検討した。
この結果から,データモデルにおける信号対雑音比に基づいて,小さなテストエラー位相と大規模なテストエラー状態とを区別できるシャープ条件を確立した。
論文 参考訳(メタデータ) (2024-09-28T13:24:11Z) - Automatic Graph Topology-Aware Transformer [50.2807041149784]
マイクロレベルおよびマクロレベルの設計による包括的グラフトランスフォーマー検索空間を構築した。
EGTASはマクロレベルでのグラフトランスフォーマートポロジとマイクロレベルでのグラフ認識戦略を進化させる。
グラフレベルおよびノードレベルのタスクに対して,EGTASの有効性を示す。
論文 参考訳(メタデータ) (2024-05-30T07:44:31Z) - Residual-based Attention Physics-informed Neural Networks for Spatio-Temporal Ageing Assessment of Transformers Operated in Renewable Power Plants [0.6223528900192875]
本稿では,変圧器の巻線温度と経年変化に関する時間モデルを紹介する。
物理ベースの偏微分方程式とデータ駆動ニューラルネットワークを用いる。
フローティング太陽光発電プラントで動作する配電変圧器を用いて, 実験結果を検証した。
論文 参考訳(メタデータ) (2024-05-10T12:48:57Z) - Learning Generative Vision Transformer with Energy-Based Latent Space
for Saliency Prediction [51.80191416661064]
本稿では,有意な物体検出に先立って,潜伏変数を持つ新しい視覚変換器を提案する。
ビジョントランスネットワークとエネルギーベース先行モデルの両方は、マルコフ連鎖モンテカルロによる最大推定を通じて共同で訓練される。
生成型視覚変換器により、画像から容易に画素単位の不確実性マップを得ることができ、画像から唾液濃度を予測するためのモデル信頼度を示す。
論文 参考訳(メタデータ) (2021-12-27T06:04:33Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。