論文の概要: Estimate Deformation Capacity of Non-Ductile RC Shear Walls using
Explainable Boosting Machine
- arxiv url: http://arxiv.org/abs/2301.04652v1
- Date: Wed, 11 Jan 2023 09:20:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 14:45:59.611421
- Title: Estimate Deformation Capacity of Non-Ductile RC Shear Walls using
Explainable Boosting Machine
- Title(参考訳): 説明可能なブースティングマシンを用いた非延性rcせん断壁の変形容量の推定
- Authors: Zeynep Tuna Deger, Gulsen Taskin Kaya, John W Wallace
- Abstract要約: 本研究の目的は,非延性鉄筋コンクリートせん断壁の変形能力を予測するための,完全に説明可能な機械学習モデルを開発することである。
提案された Explainable Boosting Machines (EBM) ベースのモデルは、解釈可能で堅牢で、自然に説明可能なガラス箱モデルであるが、ブラックボックスモデルに匹敵する高い精度を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning is becoming increasingly prevalent for tackling challenges
in earthquake engineering and providing fairly reliable and accurate
predictions. However, it is mostly unclear how decisions are made because
machine learning models are generally highly sophisticated, resulting in opaque
black-box models. Machine learning models that are naturally interpretable and
provide their own decision explanation, rather than using an explanatory, are
more accurate in determining what the model actually computes. With this
motivation, this study aims to develop a fully explainable machine learning
model to predict the deformation capacity of non-ductile reinforced concrete
shear walls based on experimental data collected worldwide. The proposed
Explainable Boosting Machines (EBM)-based model is an interpretable, robust,
naturally explainable glass-box model, yet provides high accuracy comparable to
its black-box counterparts. The model enables the user to observe the
relationship between the wall properties and the deformation capacity by
quantifying the individual contribution of each wall property as well as the
correlations among them. The mean coefficient of determination R2 and the mean
ratio of predicted to actual value based on the test dataset are 0.92 and 1.05,
respectively. The proposed predictive model stands out with its overall
consistency with scientific knowledge, practicality, and interpretability
without sacrificing high accuracy.
- Abstract(参考訳): 地震工学の課題に取り組み、かなり信頼できる正確な予測を提供するために、機械学習がますます普及している。
しかしながら、機械学習モデルが一般的に高度に洗練されており、不透明なブラックボックスモデルになるため、意思決定方法はほとんど不明である。
自然に解釈可能であり、説明を使うよりも独自の意思決定説明を提供する機械学習モデルは、モデルが実際に何を計算するかを決定する上でより正確である。
本研究の目的は, 世界中から収集した実験データをもとに, 非延性鉄筋コンクリートせん断壁の変形能力を予測するため, 完全に説明可能な機械学習モデルを開発することである。
提案された Explainable Boosting Machines (EBM) ベースのモデルは、解釈可能で堅牢で、自然に説明可能なガラス箱モデルであるが、ブラックボックスと同等の精度を提供する。
このモデルにより、各壁特性の個々の寄与とそれらの相関を定量化することにより、壁特性と変形能力の関係を観察することができる。
判定R2の平均係数と、テストデータセットに基づいて予測された実値に対する平均比はそれぞれ0.92と1.05である。
提案した予測モデルは, 精度を犠牲にすることなく, 科学的知識, 実用性, 解釈可能性と総合的に整合性を示す。
関連論文リスト
- Explainable AI models for predicting liquefaction-induced lateral spreading [1.6221957454728797]
機械学習は横方向の拡散予測モデルを改善することができる。
機械学習モデルの“ブラックボックス”の性質は、重要な意思決定における採用を妨げる可能性がある。
この研究は、信頼性と情報的意思決定のための説明可能な機械学習の価値を強調している。
論文 参考訳(メタデータ) (2024-04-24T16:25:52Z) - SLEM: Machine Learning for Path Modeling and Causal Inference with Super
Learner Equation Modeling [3.988614978933934]
因果推論は科学の重要な目標であり、研究者は観測データを使って意味のある結論に達することができる。
経路モデル、構造方程式モデル(SEM)および指向非巡回グラフ(DAG)は、現象の根底にある因果構造に関する仮定を明確に特定する手段を提供する。
本稿では,機械学習のスーパーラーナーアンサンブルを統合したパスモデリング手法であるSuper Learner Equation Modelingを提案する。
論文 参考訳(メタデータ) (2023-08-08T16:04:42Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Glass-box model representation of seismic failure mode prediction for
conventional RC shear walls [0.0]
本研究では,従来の鉄筋コンクリートせん断壁の耐震破壊モードを予測するためのガラス箱分類モデルを提案する。
モデル複雑性とモデル解釈可能性のトレードオフを8つの機械学習(ML)手法を用いて検討した。
提案モデルは, 耐震性能評価において, 解釈可能, 堅牢, 迅速な予測を可能にすることを目的としている。
論文 参考訳(メタデータ) (2021-11-12T10:21:54Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Dynamic Knowledge Distillation for Black-box Hypothesis Transfer
Learning [20.533564478224967]
仮説伝達学習のための動的知識蒸留法(dkdHTL)を提案する。
本手法では,知識蒸留を事例重み付け機構で行い,情報源仮説から対象領域へ「暗」知識を適応的に伝達する。
移行学習ベンチマークデータセットと医療データセットの両方を用いた実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-24T05:19:08Z) - Explainable Deep Modeling of Tabular Data using TableGraphNet [1.376408511310322]
付加的特徴属性の形で説明可能な予測を生成する新しいアーキテクチャを提案する。
説明可能なモデルはブラックボックスモデルと同じレベルの性能が得られることを示す。
論文 参考訳(メタデータ) (2020-02-12T20:02:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。