論文の概要: Explainable Hierarchical Deep Learning Neural Networks (Ex-HiDeNN)
- arxiv url: http://arxiv.org/abs/2507.05498v1
- Date: Mon, 07 Jul 2025 21:43:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.354889
- Title: Explainable Hierarchical Deep Learning Neural Networks (Ex-HiDeNN)
- Title(参考訳): 説明可能な階層型ディープラーニングニューラルネットワーク(Ex-HiDeNN)
- Authors: Reza T. Batley, Chanwook Park, Wing Kam Liu, Sourav Saha,
- Abstract要約: この記事では、Explainable Hierarchical Deep Learning Neural NetworksまたはEx-HiDeNNと呼ばれる新しいアプローチを提案する。
これは、限られた観測からクローズドフォーム表現を発見するために、正確な、フリガルで、高速で、分離可能で、スケーラブルなニューラルアーキテクチャとシンボリックレグレッションを使用する。
- 参考スコア(独自算出の注目度): 0.7620253522458749
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Data-driven science and computation have advanced immensely to construct complex functional relationships using trainable parameters. However, efficiently discovering interpretable and accurate closed-form expressions from complex dataset remains a challenge. The article presents a novel approach called Explainable Hierarchical Deep Learning Neural Networks or Ex-HiDeNN that uses an accurate, frugal, fast, separable, and scalable neural architecture with symbolic regression to discover closed-form expressions from limited observation. The article presents the two-step Ex-HiDeNN algorithm with a separability checker embedded in it. The accuracy and efficiency of Ex-HiDeNN are tested on several benchmark problems, including discerning a dynamical system from data, and the outcomes are reported. Ex-HiDeNN generally shows outstanding approximation capability in these benchmarks, producing orders of magnitude smaller errors compared to reference data and traditional symbolic regression. Later, Ex-HiDeNN is applied to three engineering applications: a) discovering a closed-form fatigue equation, b) identification of hardness from micro-indentation test data, and c) discovering the expression for the yield surface with data. In every case, Ex-HiDeNN outperformed the reference methods used in the literature. The proposed method is built upon the foundation and published works of the authors on Hierarchical Deep Learning Neural Network (HiDeNN) and Convolutional HiDeNN. The article also provides a clear idea about the current limitations and future extensions of Ex-HiDeNN.
- Abstract(参考訳): データ駆動科学と計算は、訓練可能なパラメータを使って複雑な機能関係を構築するために大きく進歩してきた。
しかし、複雑なデータセットから解釈可能で正確なクローズドフォーム表現を効率的に発見することは、依然として課題である。
記事では、限定された観測からクローズドフォーム表現を発見するために、シンボルレグレッションを備えた、正確でフリガルで高速で分離可能でスケーラブルなニューラルアーキテクチャを使用する、Explainable Hierarchical Deep Learning Neural NetworksまたはEx-HiDeNNと呼ばれる新しいアプローチを提案する。
本稿では,分離性チェッカーを組み込んだ2段階のEx-HiDeNNアルゴリズムを提案する。
Ex-HiDeNNの精度と効率は、データから力学系を識別するなど、いくつかのベンチマーク問題で検証され、その結果が報告される。
元HiDeNNは、これらのベンチマークで顕著な近似能力を示し、参照データや従来の記号回帰と比較して、桁違いに小さなエラーを発生させる。
その後、Ex-HiDeNNは3つの工学的応用に適用される。
a) 閉じた形の疲労方程式を発見すること
ロ マイクロインデンテーション試験データからの硬さの識別及び
c) データによる収量面の表現の発見
いずれの場合も、Ex-HiDeNNは文献で使用される参照メソッドよりも優れていた。
提案手法は,階層型ディープラーニングニューラルネットワーク (HiDeNN) と畳み込み型HiDeNNに関する著者の著作を基盤として構築されている。
この記事ではまた、Ex-HiDeNNの現在の制限と将来の拡張について、明確な考えを提供している。
関連論文リスト
- Do graph neural network states contain graph properties? [5.222978725954348]
診断分類器を用いたグラフニューラルネットワーク(GNN)のモデル説明可能性パイプラインを提案する。
このパイプラインは、さまざまなアーキテクチャやデータセットにわたるGNNの学習した表現を探索し、解釈することを目的としている。
論文 参考訳(メタデータ) (2024-11-04T15:26:07Z) - A Neural-Guided Dynamic Symbolic Network for Exploring Mathematical Expressions from Data [12.964942755481585]
記号回帰は観測データから基礎となる数学的表現を発見するための強力な手法である。
近年の深部生成SR法は有望な結果を示したが,高次元問題処理の難しさに直面している。
SRのためのニューラル誘導型動的シンボルネットワークDySymNetを提案する。
論文 参考訳(メタデータ) (2023-09-24T17:37:45Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Efficient Decompositional Rule Extraction for Deep Neural Networks [5.69361786082969]
ECLAIREは、大規模なDNNアーキテクチャと大規模なトレーニングデータセットの両方にスケール可能な、新しい時間ルール抽出アルゴリズムである。
ECLAIREは、現在の最先端手法よりも正確で理解しやすいルールセットを一貫して抽出することを示す。
論文 参考訳(メタデータ) (2021-11-24T16:54:10Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Abstraction and Symbolic Execution of Deep Neural Networks with Bayesian
Approximation of Hidden Features [8.723426955657345]
本稿では,ディープニューラルネットワークとデータセットをベイズネットワークに抽象化する新しい抽象化手法を提案する。
我々は,DNNの隠蔽層から学習した隠れ特徴を特定するために,次元削減技術を利用している。
運用時間に稀な入力を検出するランタイム監視アプローチを導出できる。
論文 参考訳(メタデータ) (2021-03-05T14:28:42Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - CodNN -- Robust Neural Networks From Coded Classification [27.38642191854458]
ディープニューラルネットワーク(Deep Neural Networks、DNN)は、現在進行中の情報革命における革命的な力である。
DNNは、敵対的であろうとランダムであろうと、ノイズに非常に敏感である。
これは、DNNのハードウェア実装と、自律運転のような重要なアプリケーションへの展開において、根本的な課題となる。
提案手法により,DNNのデータ層あるいは内部層は誤り訂正符号で符号化され,ノイズ下での計算が成功することが保証される。
論文 参考訳(メタデータ) (2020-04-22T17:07:15Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。