論文の概要: Additive-feature-attribution methods: a review on explainable artificial intelligence for fluid dynamics and heat transfer
- arxiv url: http://arxiv.org/abs/2409.11992v1
- Date: Wed, 18 Sep 2024 13:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 17:36:39.571426
- Title: Additive-feature-attribution methods: a review on explainable artificial intelligence for fluid dynamics and heat transfer
- Title(参考訳): 付加機能属性法:流体力学と熱伝達のための説明可能な人工知能について
- Authors: Andrés Cremades, Sergio Hoyas, Ricardo Vinuesa,
- Abstract要約: 本稿では,流体力学分野における解釈可能な深層学習モデルの実装において,説明可能性技術,特に加法-機能-属性手法が重要であることを示す。
加法-機能-寄与法の主な応用として, モデリング, 流体力学の基礎, 流体力学, 伝熱乱流の応用の3つの主要なグループに分けて紹介する。
- 参考スコア(独自算出の注目度): 1.8434042562191815
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The use of data-driven methods in fluid mechanics has surged dramatically in recent years due to their capacity to adapt to the complex and multi-scale nature of turbulent flows, as well as to detect patterns in large-scale simulations or experimental tests. In order to interpret the relationships generated in the models during the training process, numerical attributions need to be assigned to the input features. One important example are the additive-feature-attribution methods. These explainability methods link the input features with the model prediction, providing an interpretation based on a linear formulation of the models. The SHapley Additive exPlanations (SHAP values) are formulated as the only possible interpretation that offers a unique solution for understanding the model. In this manuscript, the additive-feature-attribution methods are presented, showing four common implementations in the literature: kernel SHAP, tree SHAP, gradient SHAP, and deep SHAP. Then, the main applications of the additive-feature-attribution methods are introduced, dividing them into three main groups: turbulence modeling, fluid-mechanics fundamentals, and applied problems in fluid dynamics and heat transfer. This review shows thatexplainability techniques, and in particular additive-feature-attribution methods, are crucial for implementing interpretable and physics-compliant deep-learning models in the fluid-mechanics field.
- Abstract(参考訳): 流体力学におけるデータ駆動手法の使用は、乱流の複雑で多スケールな性質に適応する能力や、大規模シミュレーションや実験実験のパターンを検出する能力により、近年劇的に急増している。
トレーニングプロセス中にモデルで生成された関係を解釈するためには、数値属性を入力特徴に割り当てる必要がある。
重要な例として、加法-特徴-帰属法がある。
これらの説明可能性法は入力特徴とモデル予測を結びつけ、モデルの線形定式化に基づく解釈を提供する。
SHAP(SHapley Additive exPlanations)は、モデルを理解するためのユニークなソリューションを提供する唯一の可能な解釈として定式化されている。
本論文では,カーネルSHAP,ツリーSHAP,勾配SHAP,ディープSHAPの4つの共通実装について述べる。
次に, 乱流モデリング, 流体力学の基礎, 流体力学, 熱伝達の応用の3つの主要なグループに分割して, 加法-機能-寄与法の主な適用法を紹介した。
本稿では,流体力学の分野において,説明可能性技術,特に加法-機能-属性手法が解釈可能および物理に適合したディープラーニングモデルの実装に不可欠であることを示す。
関連論文リスト
- Derivative-Free Diffusion Manifold-Constrained Gradient for Unified XAI [59.96044730204345]
微分自由拡散多様体制約勾配(FreeMCG)を導入する。
FreeMCGは、与えられたニューラルネットワークの説明可能性を改善する基盤として機能する。
提案手法は,XAIツールが期待する本質性を保ちながら,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2024-11-22T11:15:14Z) - Analyzing Generative Models by Manifold Entropic Metrics [8.477943884416023]
抽出可能な情報理論評価指標を新たに導入する。
EMNISTデータセット上の各種正規化フローアーキテクチャと$beta$-VAEを比較した。
私たちの実験で最も興味深い発見は、トレーニング中に整列および非整合表現に収束する誘導バイアスの観点から、モデルアーキテクチャとトレーニング手順のランク付けです。
論文 参考訳(メタデータ) (2024-10-25T09:35:00Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
これらの課題に対処するための影響関数フレームワークを開発する。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Dynamic Importance Learning using Fisher Information Matrix (FIM) for Nonlinear Dynamic Mapping [0.2455468619225742]
本研究はブラックボックスモデルにおける妥当性スコアを動的に決定するための方法論を提案する。
提案手法は、勾配に基づくフレームワークを用いて、分散駆動機能の重要性を明らかにする。
このアプローチの実用性は、工業的なpH中和プロセスに適用することで示される。
論文 参考訳(メタデータ) (2024-06-08T08:12:41Z) - Uncertainty quantification and out-of-distribution detection using
surjective normalizing flows [46.51077762143714]
本稿では,深層ニューラルネットワークモデルにおける分布外データセットの探索的正規化フローを用いた簡単なアプローチを提案する。
本手法は, 流通外データと流通内データとを確実に識別できることを示す。
論文 参考訳(メタデータ) (2023-11-01T09:08:35Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - A data-driven peridynamic continuum model for upscaling molecular
dynamics [3.1196544696082613]
分子動力学データから最適線形ペリダイナミックソリッドモデルを抽出する学習フレームワークを提案する。
我々は,符号変化の影響関数を持つ離散化LPSモデルに対して,十分な適切な正当性条件を提供する。
このフレームワークは、結果のモデルが数学的に適切であり、物理的に一貫したものであり、トレーニング中に使用するものと異なる設定によく当てはまることを保証します。
論文 参考訳(メタデータ) (2021-08-04T07:07:47Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - A physics-informed operator regression framework for extracting
data-driven continuum models [0.0]
高忠実度分子シミュレーションデータから連続体モデルを発見するためのフレームワークを提案する。
提案手法は、モーダル空間における制御物理のニューラルネットワークパラメタライゼーションを適用する。
局所・非局所拡散過程や単相・多相流など,様々な物理分野におけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-09-25T01:13:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。