論文の概要: Breaking the Black Box: Inherently Interpretable Physics-Informed Machine Learning for Imbalanced Seismic Data
- arxiv url: http://arxiv.org/abs/2508.19031v1
- Date: Tue, 26 Aug 2025 13:48:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.86761
- Title: Breaking the Black Box: Inherently Interpretable Physics-Informed Machine Learning for Imbalanced Seismic Data
- Title(参考訳): ブラックボックスを破る:不均衡地震データのための物理インフォームド・機械学習
- Authors: Vemula Sreenath, Filippo Gatti, Pierre Jehel,
- Abstract要約: 地盤運動モデル(GMM)は、地震時に地盤がどれほど強く揺れるかを予測する。
従来の機械学習アプローチは、世界中の大規模な地震データベースのために、GMMの開発に人気がある。
本研究では、HazBinLoss関数を用いた透過的なMLアーキテクチャを開発する。
- 参考スコア(独自算出の注目度): 0.4078247440919473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ground motion models (GMMs) predict how strongly the ground will shake during an earthquake. They are essential for structural analysis, seismic design, and seismic risk assessment studies. Traditional machine learning (ML) approaches are popular to develop GMMs, due to large earthquake databases worldwide. However, they operate as "black boxes," which are hard to interpret and trust, limiting their use in high-stake decisions. Additionally, these databases suffer from significant data imbalances: fewer large, critically damaging records near the fault compared to abundant, less severely damaging distant records. These two limitations are addressed in this work by developing a transparent ML architecture using the HazBinLoss function. Each input (e.g., magnitude, distance, their interaction term, etc.) is processed separately and added linearly to obtain the output, resulting in exact contribution of each term. The HazBinLoss function assigns higher weights to critical near-field large magnitude records and lower weights to less-critical far-field smaller magnitude records, during training to prevent underprediction of the most damaging scenarios. Our model captures known seismological principles and achieves comparable performance with established GMMs while maintaining transparency. This framework enables broader adoption of ML-based approaches for risk assessment studies and disaster planning.
- Abstract(参考訳): 地盤運動モデル(GMM)は、地震時に地盤がどれほど強く揺れるかを予測する。
これらは構造解析、地震設計、地震リスク評価研究に不可欠である。
従来の機械学習(ML)アプローチは、世界中の大規模な地震データベースのために、GMMの開発に人気がある。
しかし、それらは「ブラックボックス」として機能し、解釈と信頼が困難であり、高い意思決定における使用を制限する。
さらに、これらのデータベースは重大なデータ不均衡に悩まされており、断層付近のレコードは、豊富なレコードに比べて、大きく、致命傷を負っている。
この2つの制限は、HazBinLoss関数を使用して透過的なMLアーキテクチャを開発することで解決される。
それぞれの入力(例えば、大きさ、距離、相互作用項など)を別々に処理し、線形に加算して出力を取得し、各項の正確な寄与をもたらす。
HazBinLoss関数は、トレーニング中に、最も損傷の少ないシナリオの過小評価を防ぐために、より重みを臨界近距離大記録に割り当て、より低い重みを最小遠距離小記録に割り当てる。
我々のモデルは、既知の地震学の原理を捉え、透明性を維持しつつ、確立されたGMMと同等のパフォーマンスを達成する。
このフレームワークは、リスクアセスメント研究や災害計画のためのMLベースのアプローチを広く採用することを可能にする。
関連論文リスト
- A Multimodal, Multilingual, and Multidimensional Pipeline for Fine-grained Crowdsourcing Earthquake Damage Evaluation [5.5809992003597575]
迅速な、きめ細かい災害被害評価は、効果的な緊急対応には不可欠であるが、地上センサーの制限や公式報告の遅れにより、依然として困難である。
ソーシャルメディアは、人間中心の観察のリッチでリアルタイムな情報源を提供するが、そのマルチモーダルで非構造的な性質は、従来の分析手法の課題を提起している。
マルチモーダル・大規模言語モデル(MLLM)を利用した災害影響評価のための構造的多モーダル・多言語・多次元パイプライン(3M)を提案する。
論文 参考訳(メタデータ) (2025-06-03T20:07:25Z) - LLMs as World Models: Data-Driven and Human-Centered Pre-Event Simulation for Disaster Impact Assessment [6.787695140978638]
本研究では,複数の大規模言語モデル(LLM)について検討し,地震の影響を推定する。
我々のフレームワークは、ジップコードと郡規模で修正メルカリー強度(MMI)予測を生成する。
2014年ナパ地震と2019年リッジクレスト地震のUSGS'Did You Feel It?
論文 参考訳(メタデータ) (2025-06-02T22:07:53Z) - Do We Really Need Curated Malicious Data for Safety Alignment in Multi-modal Large Language Models? [83.53005932513155]
MLLM(Multi-modal large language model)は大きな進歩を遂げているが、その安全性は依然として限られている。
そこで我々は, 単純明快な拒絶文に代えて, 少数の良性命令追従データに対して, MLLMを微調整する手法を提案する。
論文 参考訳(メタデータ) (2025-04-14T09:03:51Z) - Mitigating Forgetting in LLM Fine-Tuning via Low-Perplexity Token Learning [61.99353167168545]
LLM生成データによる微調整により,目標タスクの性能が向上し,非目標タスクの劣化が低減されることを示す。
微調整後のLSMにおける破滅的忘れを緩和するために、トークンの難易度低減に基づく経験的説明を提供する最初の研究である。
論文 参考訳(メタデータ) (2025-01-24T08:18:56Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Physics-Informed Deep Learning of Rate-and-State Fault Friction [0.0]
我々は, 前方問題と非線形欠陥摩擦パラメータの直接逆変換のためのマルチネットワークPINNを開発した。
本稿では1次元および2次元のストライク・スリップ断層に対する速度・状態摩擦を考慮した計算PINNフレームワークを提案する。
その結果, 断層におけるパラメータ逆転のネットワークは, 結合した物質変位のネットワークよりもはるかに優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-14T23:53:25Z) - Physics-Enhanced TinyML for Real-Time Detection of Ground Magnetic
Anomalies [0.0]
地磁気障害(GMD)のような宇宙の気象現象は、重要な技術基盤に重大なリスクをもたらす。
本稿では、上記の課題に対処する物理誘導型TinyMLフレームワークを開発する。
モデルトレーニングと圧縮の段階で物理ベースの正規化を統合し、予測の信頼性を高める。
論文 参考訳(メタデータ) (2023-11-19T23:20:16Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - A CNN-BiLSTM Model with Attention Mechanism for Earthquake Prediction [0.0]
本稿では、注意機構(AM)、畳み込みニューラルネットワーク(CNN)、双方向長短期記憶(BiLSTM)モデルに基づく新しい予測手法を提案する。
中国本土の地震カタログに基づいて,各地域の地震の規模と規模を推定することができる。
論文 参考訳(メタデータ) (2021-12-26T20:16:20Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。