論文の概要: TIME: A Transparent, Interpretable, Model-Adaptive and Explainable
Neural Network for Dynamic Physical Processes
- arxiv url: http://arxiv.org/abs/2003.02426v2
- Date: Fri, 6 Mar 2020 04:45:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:24:10.336596
- Title: TIME: A Transparent, Interpretable, Model-Adaptive and Explainable
Neural Network for Dynamic Physical Processes
- Title(参考訳): TIME: 動的物理プロセスのための透明で解釈可能なモデル適応型、説明可能なニューラルネットワーク
- Authors: Gurpreet Singh, Soumyajit Gupta, Matt Lease, Clint N. Dawson
- Abstract要約: 我々は、観測可能なシステムを再構築するために、ドメインの不変構造をキャプチャする完全な畳み込みアーキテクチャを提案する。
我々の意図は、モデル適応性のための独立したプロセスを表す真のカーネルからの逸脱として解釈された結合された動的プロセスを学ぶことである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial Differential Equations are infinite dimensional encoded
representations of physical processes. However, imbibing multiple observation
data towards a coupled representation presents significant challenges. We
present a fully convolutional architecture that captures the invariant
structure of the domain to reconstruct the observable system. The proposed
architecture is significantly low-weight compared to other networks for such
problems. Our intent is to learn coupled dynamic processes interpreted as
deviations from true kernels representing isolated processes for
model-adaptivity. Experimental analysis shows that our architecture is robust
and transparent in capturing process kernels and system anomalies. We also show
that high weights representation is not only redundant but also impacts network
interpretability. Our design is guided by domain knowledge, with isolated
process representations serving as ground truths for verification. These allow
us to identify redundant kernels and their manifestations in activation maps to
guide better designs that are both interpretable and explainable unlike
traditional deep-nets.
- Abstract(参考訳): 偏微分方程式は物理過程の無限次元エンコード表現である。
しかし、複数の観測データを結合表現に含めることは大きな課題である。
我々は、可観測系を再構築するために、領域の不変構造をキャプチャする完全畳み込み構造を提案する。
提案アーキテクチャは,このような問題に対して他のネットワークに比べてかなり低重量である。
我々の意図は、モデル適応性のために孤立したプロセスを表現した真のカーネルからの逸脱として解釈される結合した動的プロセスを学ぶことである。
実験により,我々のアーキテクチャはプロセスカーネルやシステム異常の捕捉において堅牢で透明であることが示された。
また,重み表現は冗長であるだけでなく,ネットワークの解釈性にも影響を及ぼすことを示した。
私たちの設計はドメイン知識によって導かれ、独立したプロセス表現が検証の基盤となる。
これにより、冗長なカーネルとそのアクティベーションマップでの表現を識別し、従来のディープネットとは異なり解釈可能かつ説明可能な優れた設計を導くことができます。
関連論文リスト
- Identifiable Representation and Model Learning for Latent Dynamic Systems [0.0]
本稿では,潜在力学系における表現とモデル学習の問題について検討する。
線形あるいはアフィン非線形潜在力学系に対して、スケーリングまでの表現を同定し、いくつかの単純な変換までモデルを決定できることを証明した。
論文 参考訳(メタデータ) (2024-10-23T13:55:42Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - The Dynamic Net Architecture: Learning Robust and Holistic Visual Representations Through Self-Organizing Networks [3.9848584845601014]
動的ネットアーキテクチャ(DNA)と呼ばれる新しいインテリジェントシステムアーキテクチャを提案する。
DNAは繰り返し安定化されたネットワークに依存し、それを視覚に応用するために議論する。
論文 参考訳(メタデータ) (2024-07-08T06:22:10Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - When Representations Align: Universality in Representation Learning Dynamics [8.188549368578704]
我々は、入力から隠れ表現への符号化マップと、表現から出力への復号マップが任意の滑らかな関数であるという仮定の下で、表現学習の効果的な理論を導出する。
実験により,活性化関数とアーキテクチャの異なる深層ネットワークにおける表現学習力学の側面を効果的に記述することを示した。
論文 参考訳(メタデータ) (2024-02-14T12:48:17Z) - Piecewise-Velocity Model for Learning Continuous-time Dynamic Node
Representations [0.0]
連続時間動的ネットワーク表現のためのPiecewise-Veable Model (PiVeM)。
超低次元空間において、PiVeMはネットワーク構造と力学をうまく表現できることを示す。
リンク予測などの下流タスクでは、関連する最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-12-23T13:57:56Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Discrete-Valued Neural Communication [85.3675647398994]
コンポーネント間で伝達される情報を離散表現に制限することは、有益なボトルネックであることを示す。
個人は「猫」が特定の経験に基づいて何であるかについて異なる理解を持っているが、共有された離散トークンは、個人間のコミュニケーションが内部表現の個人差によって切り離されることを可能にする。
我々は、量子化機構をベクトル量子化変分オートコーダから共有符号ブックによる多頭部離散化に拡張し、離散値ニューラル通信に利用する。
論文 参考訳(メタデータ) (2021-07-06T03:09:25Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。