論文の概要: Prion-ViT: Prions-Inspired Vision Transformers for Temperature prediction with Specklegrams
- arxiv url: http://arxiv.org/abs/2411.05836v2
- Date: Thu, 14 Nov 2024 03:21:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:21:33.960361
- Title: Prion-ViT: Prions-Inspired Vision Transformers for Temperature prediction with Specklegrams
- Title(参考訳): Prion-ViT:スペックルグラムによる温度予測のためのプリオンインスパイアされた視覚変換器
- Authors: Abhishek Sebastian, Pragna R,
- Abstract要約: Prion-ViTは生物学的プリオンメモリメカニズムにインスパイアされたビジョントランスフォーマーである。
これは平均絶対誤差(MAE)を0.52degCに減らし、ResNet、Inception Net V2、標準ビジョントランスフォーマーなどのモデルより優れている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Fiber Specklegram Sensors (FSS) are vital for environmental monitoring due to their high temperature sensitivity, but their complex data poses challeng-es for predictive models. This study introduces Prion-ViT, a prion-inspired Vision Transformer model, inspired by biological prion memory mecha-nisms, to improve long-term dependency modeling and temperature prediction accuracy using FSS data. Prion-ViT leverages a persistent memory state to retain and propagate key features across layers, reducing mean absolute error (MAE) to 0.52{\deg}C and outperforming models like ResNet, Inception Net V2, and standard vision transformers. This work highlights Prion-ViT's potential for real-time industrial temperature monitoring and broader optical sensing applications.
- Abstract(参考訳): 繊維スペックルグラムセンサ(FSS)は高温感度のために環境モニタリングに欠かせないが、複雑なデータは予測モデルに欠かせない。
本研究では,生物プリオンメモリのメカニズムにインスパイアされたプリオンインスパイアされたビジョントランスフォーマーモデルPrion-ViTを導入し,FSSデータを用いた長期依存性モデリングと温度予測精度の向上を図る。
Prion-ViTは永続的なメモリ状態を利用して、レイヤ間のキー機能の保持と伝搬を行い、平均絶対誤差(MAE)を0.52{\deg}Cに削減し、ResNet、Inception Net V2、標準ビジョントランスフォーマーなどのモデルより優れたパフォーマンスを実現している。
この研究は、Prion-ViTのリアルタイム産業用温度モニタリングおよびより広い光センシング応用の可能性を強調している。
関連論文リスト
- Grapevine Disease Prediction Using Climate Variables from Multi-Sensor Remote Sensing Imagery via a Transformer Model [0.0]
本稿では,TabPFNモデルを用いたブロックワイドブドウ病の予測手法を提案する。
本手法は,高度な機械学習技術と詳細な環境データを統合することにより,疾患予測の精度と効率を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-11T09:33:15Z) - Generalized Face Forgery Detection via Adaptive Learning for Pre-trained Vision Transformer [54.32283739486781]
適応学習パラダイムの下で,textbfForgery-aware textbfAdaptive textbfVision textbfTransformer(FA-ViT)を提案する。
FA-ViTは、クロスデータセット評価において、Celeb-DFおよびDFDCデータセット上で93.83%と78.32%のAUCスコアを達成する。
論文 参考訳(メタデータ) (2023-09-20T06:51:11Z) - V1T: large-scale mouse V1 response prediction using a Vision Transformer [1.5703073293718952]
動物間における視覚的・行動的表現の共有を学習するビジョントランスフォーマーに基づく新しいアーキテクチャであるV1Tを紹介する。
マウスの一次視覚野から記録された2つの大きなデータセットを用いて、我々のモデルを評価し、予測性能を12.7%以上向上させた。
論文 参考訳(メタデータ) (2023-02-06T18:58:38Z) - A Close Look at Spatial Modeling: From Attention to Convolution [70.5571582194057]
ビジョントランスフォーマーは最近、洞察に富んだアーキテクチャ設計とアテンションメカニズムのために、多くのビジョンタスクに対して大きな約束をしました。
我々は、自己意図の定式化を一般化し、クエリ非関連なグローバルコンテキストを直接抽象化し、グローバルコンテキストを畳み込みに統合する。
FCViT-S12は14M未満のパラメータを持つため、ImageNet-1K上でのResT-Liteの精度は3.7%向上した。
論文 参考訳(メタデータ) (2022-12-23T19:13:43Z) - Surface Vision Transformers: Flexible Attention-Based Modelling of
Biomedical Surfaces [9.425082767553935]
コンピュータビジョンタスクにおけるビジョントランスフォーマー(ViT)の最近の最先端パフォーマンスは、ViTが畳み込みニューラルネットワークの局所的な特徴学習操作を置き換えることを実証している。
表面学習の課題をシーケンシャル・ツー・シーケンス・ラーニングの課題として再検討することで,ViTを表面へ拡張する。
本手法は,様々な生体表面ドメインとタスクに対して検証する。
論文 参考訳(メタデータ) (2022-04-07T12:45:54Z) - Learning Generative Vision Transformer with Energy-Based Latent Space
for Saliency Prediction [51.80191416661064]
本稿では,有意な物体検出に先立って,潜伏変数を持つ新しい視覚変換器を提案する。
ビジョントランスネットワークとエネルギーベース先行モデルの両方は、マルコフ連鎖モンテカルロによる最大推定を通じて共同で訓練される。
生成型視覚変換器により、画像から容易に画素単位の不確実性マップを得ることができ、画像から唾液濃度を予測するためのモデル信頼度を示す。
論文 参考訳(メタデータ) (2021-12-27T06:04:33Z) - PhysFormer: Facial Video-based Physiological Measurement with Temporal
Difference Transformer [55.936527926778695]
近年のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙なrの手がかりのマイニングに重点を置いている。
本稿では,エンドツーエンドのビデオトランスをベースとしたアーキテクチャであるPhysFormerを提案する。
論文 参考訳(メタデータ) (2021-11-23T18:57:11Z) - Fine-tuning Vision Transformers for the Prediction of State Variables in
Ising Models [2.9005223064604078]
Transformerは、スタックされた注意とポイントワイドで完全に接続されたレイヤで構成される最先端のディープラーニングモデルである。
本研究では、2次元イジングモデルシミュレーションの状態変数を予測するために視覚変換器(ViT)を適用した。
論文 参考訳(メタデータ) (2021-09-28T00:23:31Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。