論文の概要: A Robust Learning Methodology for Uncertainty-aware Scientific Machine
Learning models
- arxiv url: http://arxiv.org/abs/2209.01900v1
- Date: Mon, 5 Sep 2022 10:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:51:34.557108
- Title: A Robust Learning Methodology for Uncertainty-aware Scientific Machine
Learning models
- Title(参考訳): 不確実性を考慮した科学機械学習モデルのためのロバスト学習手法
- Authors: Erbet Costa Almeida, Carine de Menezes Rebello, Marcio Fontana, Leizer
Schnitman, Idelfonso Bessa dos Reis Nogueira
- Abstract要約: 本研究は,SciMLの不確実性評価のための包括的方法論を提案する。
提案手法で考慮された不確実性は、理論と因果モデルがないこと、データの破損や不完全性への敏感さ、計算努力である。
この手法はケーススタディを通じて検証され、重合反応器用のソフトセンサーを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust learning is an important issue in Scientific Machine Learning (SciML).
There are several works in the literature addressing this topic. However, there
is an increasing demand for methods that can simultaneously consider all the
different uncertainty components involved in SciML model identification. Hence,
this work proposes a comprehensive methodology for uncertainty evaluation of
the SciML that also considers several possible sources of uncertainties
involved in the identification process. The uncertainties considered in the
proposed method are the absence of theory and causal models, the sensitiveness
to data corruption or imperfection, and the computational effort. Therefore, it
was possible to provide an overall strategy for the uncertainty-aware models in
the SciML field. The methodology is validated through a case study, developing
a Soft Sensor for a polymerization reactor. The results demonstrated that the
identified Soft Sensor are robust for uncertainties, corroborating with the
consistency of the proposed approach.
- Abstract(参考訳): ロバスト学習は科学的機械学習(sciml)において重要な問題である。
この話題を扱う文献にはいくつかの著作がある。
しかし、SciMLモデル識別に関わる様々な不確実性要素を同時に考慮できる手法の需要が高まっている。
そこで本研究では,SciMLの不確実性評価のための包括的方法論を提案する。
提案手法で考慮される不確実性は,理論と因果モデルが存在しないこと,データの腐敗や不完全さに対する敏感さ,計算努力である。
したがって、SciML分野における不確実性認識モデルに対する全体的な戦略を提供することができた。
本手法は, 重合反応器用ソフトセンサの開発を事例研究により検証した。
その結果, 同定されたソフトセンサは不確実性に対して頑健であり, 提案手法の整合性と相関することがわかった。
関連論文リスト
- Navigating Uncertainties in Machine Learning for Structural Dynamics: A Comprehensive Review of Probabilistic and Non-Probabilistic Approaches in Forward and Inverse Problems [0.0]
本稿では,機械学習(ML)における不確実性のナビゲートに関する包括的レビューを行う。
確率的手法や非確率的手法に対する不確実性に気付くアプローチを列挙する。
このレビューは、ML技術を利用して構造的動的問題の不確実性に対処する際、研究者や実践者が情報的決定を行うのを支援することを目的としている。
論文 参考訳(メタデータ) (2024-08-16T09:43:01Z) - Kernel Language Entropy: Fine-grained Uncertainty Quantification for LLMs from Semantic Similarities [79.9629927171974]
大規模言語モデル(LLM)の不確実性は、安全性と信頼性が重要であるアプリケーションには不可欠である。
ホワイトボックスとブラックボックス LLM における不確実性評価手法である Kernel Language Entropy (KLE) を提案する。
論文 参考訳(メタデータ) (2024-05-30T12:42:05Z) - A Methodology to Identify Physical or Computational Experiment Conditions for Uncertainty Mitigation [0.0]
本稿では,システムレベルの不確実性軽減を目的とした計算実験や物理実験を設計するための方法論を提案する。
提案手法は様々な設計課題にまたがって不確実性管理に取り組むのに十分な汎用性を有する。
論文 参考訳(メタデータ) (2024-05-22T18:59:42Z) - Machine Learning Robustness: A Primer [12.426425119438846]
この議論はロバストネスの詳細な定義から始まり、MLモデルが様々な環境条件と予期せぬ環境条件で安定した性能を維持する能力であることを示している。
この章では、データバイアスやモデル複雑性、未特定のMLパイプラインの落とし穴など、堅牢性を阻害する要因について詳しく説明している。
議論は、デバイアスや拡張といったデータ中心のアプローチから始まる、堅牢性を促進するための改善戦略を探求する。
論文 参考訳(メタデータ) (2024-04-01T03:49:42Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - A Meta-heuristic Approach to Estimate and Explain Classifier Uncertainty [0.4264192013842096]
本研究は,人間と機械学習の双方の意思決定に相互に関係する因子の観点から,インスタンスの複雑性を特徴付けるクラス非依存型メタヒューリスティックスを提案する。
提案された測度とフレームワークは、より複雑なインスタンスのモデル開発を改善するとともに、モデルの棄却と説明の新しい手段を提供するという約束を持っている。
論文 参考訳(メタデータ) (2023-04-20T13:09:28Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Variance based sensitivity analysis for Monte Carlo and importance
sampling reliability assessment with Gaussian processes [0.0]
本稿では,2つの不確実性源に対する故障推定器の感度を定量的に評価する手法を提案する。
この分析により、故障確率推定に関連する全誤差を制御でき、推定の精度基準を提供する。
本手法は, モンテカルロ法と重要サンプリング法の両方で提案され, 希少事象確率の推定を改善することを目的としている。
論文 参考訳(メタデータ) (2020-11-30T17:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。