論文の概要: Towards trustworthy AI in materials mechanics through domain-guided attention
- arxiv url: http://arxiv.org/abs/2507.20658v1
- Date: Mon, 28 Jul 2025 09:23:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.065782
- Title: Towards trustworthy AI in materials mechanics through domain-guided attention
- Title(参考訳): ドメインガイドによる材料力学における信頼できるAIを目指して
- Authors: Jesco Talies, Eric Breitbarth, David Melching,
- Abstract要約: 本稿では、説明可能な人工知能技術と定量的評価とドメイン固有の事前知識を組み合わせて、モデル注意を誘導するアテンション誘導トレーニングというフレームワークを提案する。
トレーニング中のモデル説明に対するドメイン固有のフィードバックは、モデルの一般化能力を高めることができることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring the trustworthiness and robustness of deep learning models remains a fundamental challenge, particularly in high-stakes scientific applications. In this study, we present a framework called attention-guided training that combines explainable artificial intelligence techniques with quantitative evaluation and domain-specific priors to guide model attention. We demonstrate that domain specific feedback on model explanations during training can enhance the model's generalization capabilities. We validate our approach on the task of semantic crack tip segmentation in digital image correlation data which is a key application in the fracture mechanical characterization of materials. By aligning model attention with physically meaningful stress fields, such as those described by Williams' analytical solution, attention-guided training ensures that the model focuses on physically relevant regions. This finally leads to improved generalization and more faithful explanations.
- Abstract(参考訳): ディープラーニングモデルの信頼性と堅牢性を保証することは、特に高度な科学的応用において、根本的な課題である。
本研究では、説明可能な人工知能技術と定量的評価とドメイン固有の事前知識を組み合わせて、モデル注意を誘導するアテンション誘導トレーニングというフレームワークを提案する。
トレーニング中のモデル説明に対するドメイン固有のフィードバックは、モデルの一般化能力を高めることができることを実証する。
ディジタル画像相関データにおける意味的き裂先端セグメンテーションの課題に対する我々のアプローチの有効性を検証する。
ウィリアムズの分析解のような物理的に意味のある応力場とモデル注意を合わせることで、注意誘導訓練はモデルが物理的に関係のある領域に焦点を当てることを保証する。
これは最終的に一般化とより忠実な説明に繋がる。
関連論文リスト
- Preference Learning for AI Alignment: a Causal Perspective [55.2480439325792]
私たちはこの問題を因果パラダイムに枠組み化し、永続的な課題を特定するための因果関係の豊富なツールボックスを提供します。
因果推論の文献を継承し、信頼性の高い一般化に必要な重要な仮定を特定する。
そこで本研究では, 因果関係に基づくアプローチがモデルロバスト性をいかに改善するかを, ナイーブ報酬モデルの障害モードを例示する。
論文 参考訳(メタデータ) (2025-06-06T10:45:42Z) - Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction [55.914891182214475]
モデル適応のための統一フレームワークとして,ニューラルネットワークの再プログラム可能性を導入する。
本稿では,4つの重要な側面にまたがる情報操作アプローチを分類する分類法を提案する。
残る技術的課題や倫理的考察も分析する。
論文 参考訳(メタデータ) (2025-06-05T05:42:27Z) - Deep Model Merging: The Sister of Neural Network Interpretability -- A Survey [4.013324399289249]
モデルマージと損失ランドスケープ解析の実証研究から,ニューラルネットワークのトレーニングと内部表現の出現を規定する現象までを,損失ランドスケープ幾何学のレンズを通して調査する。
本研究では,これらの分野の文献から得られた経験的観察を,モデム凸性,決定性,指向性,接続性の4つの主要な特徴について記述した。
論文 参考訳(メタデータ) (2024-10-16T18:14:05Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - Relational Learning in Pre-Trained Models: A Theory from Hypergraph Recovery Perspective [60.64922606733441]
我々は,関係学習をハイパーグラフリカバリとして形式化する数学的モデルを導入し,基礎モデル(FM)の事前学習について検討する。
我々のフレームワークでは、世界はハイパーグラフとして表現され、データはハイパーエッジからランダムなサンプルとして抽象化される。我々は、このハイパーグラフを復元するための事前学習モデル(PTM)の有効性を理論的に検証し、ミニマックスに近い最適スタイルでデータ効率を解析する。
論文 参考訳(メタデータ) (2024-06-17T06:20:39Z) - Enhancing Dynamical System Modeling through Interpretable Machine
Learning Augmentations: A Case Study in Cathodic Electrophoretic Deposition [0.8796261172196743]
本稿では,物理システムのモデリング向上を目的とした包括的データ駆動フレームワークを提案する。
実証的応用として,電顕的電気泳動沈着(EPD)のモデル化を追求する。
論文 参考訳(メタデータ) (2024-01-16T14:58:21Z) - On the Optimization and Generalization of Multi-head Attention [28.33164313549433]
マルチアテンションヘッドを用いた場合の潜在的な最適化と一般化の利点について検討する。
単層多層自己アテンションモデルの勾配差学習における収束と一般化の保証を導出する。
論文 参考訳(メタデータ) (2023-10-19T12:18:24Z) - Temporal Relevance Analysis for Video Action Models [70.39411261685963]
まず,CNNに基づく行動モデルにより捉えたフレーム間の時間的関係を定量化する手法を提案する。
次に、時間的モデリングがどのように影響を受けるかをよりよく理解するために、包括的な実験と詳細な分析を行います。
論文 参考訳(メタデータ) (2022-04-25T19:06:48Z) - On the Dynamics of Training Attention Models [30.85940880569692]
勾配勾配勾配を用いた簡単な注意に基づく分類モデルの訓練の力学について検討する。
我々は、注意出力が線形分類器によって分類される場合、訓練は識別語への参加に収束しなければならないことを証明した。
論文 参考訳(メタデータ) (2020-11-19T18:55:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。