論文の概要: Triple Attention Transformer Architecture for Time-Dependent Concrete Creep Prediction
- arxiv url: http://arxiv.org/abs/2506.04243v1
- Date: Wed, 28 May 2025 22:30:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.289235
- Title: Triple Attention Transformer Architecture for Time-Dependent Concrete Creep Prediction
- Title(参考訳): 時間依存コンクリートのクリープ予測のためのトリプルアテンショントランスアーキテクチャ
- Authors: Warayut Dokduea, Weerachart Tangchirapat, Sompote Youwai,
- Abstract要約: 本稿では, 時間依存コンクリートクリープ予測のための新しい三重注意変換器アーキテクチャを提案する。
具体的なクリープ予測を言語処理に類似した自己回帰シーケンスモデリングタスクに変換することで,我々のアーキテクチャはトランスフォーマーの自己認識機構を活用する。
このアーキテクチャは、平均絶対パーセンテージ誤差1.63%、R2値0.999を全データセットで達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel Triple Attention Transformer Architecture for predicting time-dependent concrete creep, addressing fundamental limitations in current approaches that treat time as merely an input parameter rather than modeling the sequential nature of deformation development. By transforming concrete creep prediction into an autoregressive sequence modeling task similar to language processing, our architecture leverages the transformer's self-attention mechanisms to capture long-range dependencies in historical creep patterns. The model implements a triple-stream attention framework incorporating temporal attention for sequential progression, feature attention for material property interactions, and batch attention for inter-sample relationships. Evaluated on experimental datasets with standardized daily measurements spanning 160 days, the architecture achieves exceptional performance with mean absolute percentage error of 1.63% and R2 values of 0.999 across all datasets, substantially outperforming traditional empirical models and existing machine learning approaches. Ablation studies confirm the critical role of attention mechanisms, with attention pooling contributing most significantly to model performance. SHAP analysis reveals Young's modulus as the primary predictive feature, followed by density and compressive strength, providing interpretability essential for engineering applications. A deployed web-based interface facilitates practical implementation, enabling real-time predictions using standard laboratory parameters. This work establishes the viability of applying transformer architectures to materials science problems, demonstrating the potential for data-driven approaches to revolutionize structural behavior prediction and engineering design practices.
- Abstract(参考訳): 本稿では, 時間依存コンクリートのクリープを予測し, 変形発生の逐次的性質をモデル化するのではなく, 時間のみを入力パラメータとして扱う現在のアプローチの基本的制約に対処する, 新規な三重注意トランスフォーマーアーキテクチャを提案する。
具体的なクリープ予測を言語処理に類似した自己回帰的シーケンスモデリングタスクに変換することにより、このアーキテクチャはトランスフォーマーの自己保持機構を利用して、歴史的クリープパターンの長距離依存性をキャプチャする。
モデルでは,逐次進行に対する時間的注意,物質的特性の相互作用に対する特徴的注意,サンプル間の関係に対するバッチ的注意を組み込んだ3重ストリームアテンション・フレームワークを実装した。
160日間にわたる日々の標準測定で評価された実験データセットに基づいて、アーキテクチャは、すべてのデータセットで1.63%、R2値0.999の平均絶対誤差で例外的なパフォーマンスを達成し、従来の経験的モデルと既存の機械学習アプローチを大幅に上回る。
アブレーション研究はアテンション・メカニズムの重要な役割を証明し、アテンション・プールはモデルの性能に最も寄与する。
SHAP解析は、ヤング率を第一の予測的特徴とし、次に密度と圧縮強度を示し、工学的な応用に不可欠な解釈性を提供する。
デプロイされたWebベースのインタフェースは実践的な実装を容易にし、標準的な実験室パラメータを用いたリアルタイムな予測を可能にする。
この研究は、トランスフォーマーアーキテクチャを材料科学問題に適用する可能性を確立し、構造的挙動予測とエンジニアリング設計プラクティスに革命をもたらすデータ駆動アプローチの可能性を示す。
関連論文リスト
- Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction [55.914891182214475]
モデル適応のための統一フレームワークとして,ニューラルネットワークの再プログラム可能性を導入する。
本稿では,4つの重要な側面にまたがる情報操作アプローチを分類する分類法を提案する。
残る技術的課題や倫理的考察も分析する。
論文 参考訳(メタデータ) (2025-06-05T05:42:27Z) - Powerformer: A Transformer with Weighted Causal Attention for Time-series Forecasting [50.298817606660826]
我々は,非因果重みをスムーズな重み付き崩壊に応じて再加重する因果重みに置き換える新しいトランスフォーマーであるPowerformerを紹介する。
我々の実証実験の結果,Powerformer は公開時系列ベンチマークで最先端の精度を達成できた。
分析の結果、トレーニング中にモデルの局所性バイアスが増幅され、時系列データとパワールールに基づく注意の相互作用が示されることがわかった。
論文 参考訳(メタデータ) (2025-02-10T04:42:11Z) - WAVE: Weighted Autoregressive Varying Gate for Time Series Forecasting [9.114664059026767]
本稿では,AR(Autoregressive Varying GatE attention mechanism)とMA(Moving-average)を併用した重み付き自己回帰Varying GatEアテンション機構を提案する。
様々な注意機構に適応し、時系列データの中で長距離および局所的な時間パターンをキャプチャする能力を強化し、分離することができる。
論文 参考訳(メタデータ) (2024-10-04T05:45:50Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Enhanced LFTSformer: A Novel Long-Term Financial Time Series Prediction Model Using Advanced Feature Engineering and the DS Encoder Informer Architecture [0.8532753451809455]
本研究では,拡張LFTSformerと呼ばれる長期金融時系列の予測モデルを提案する。
このモデルは、いくつかの重要なイノベーションを通じて、自分自身を区別する。
さまざまなベンチマークストックマーケットデータセットに関するシステマティックな実験は、強化LFTSformerが従来の機械学習モデルより優れていることを示している。
論文 参考訳(メタデータ) (2023-10-03T08:37:21Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Autoformer: Decomposition Transformers with Auto-Correlation for
Long-Term Series Forecasting [68.86835407617778]
Autoformerは、Auto-Correlation機構を備えた、新しい分解アーキテクチャである。
長期的な予測では、Autoformerは6つのベンチマークで相対的に改善され、最先端の精度が得られる。
論文 参考訳(メタデータ) (2021-06-24T13:43:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。