論文の概要: Transformation Importance with Applications to Cosmology
- arxiv url: http://arxiv.org/abs/2003.01926v2
- Date: Mon, 14 Jun 2021 17:28:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:51:55.689450
- Title: Transformation Importance with Applications to Cosmology
- Title(参考訳): 宇宙論への転換の重要さ
- Authors: Chandan Singh, Wooseok Ha, Francois Lanusse, Vanessa Boehm, Jia Liu,
Bin Yu
- Abstract要約: 本稿では,変換空間における特徴に重きを置く新しい手法を提案し,十分に訓練されたモデルにポストホックを適用する。
TRans IMportanceは、シミュレーションデータ上のディープニューラルネットワーク(DNN)を用いた宇宙パラメータ推定問題によって動機付けられている。
- 参考スコア(独自算出の注目度): 13.72250424474013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning lies at the heart of new possibilities for scientific
discovery, knowledge generation, and artificial intelligence. Its potential
benefits to these fields requires going beyond predictive accuracy and focusing
on interpretability. In particular, many scientific problems require
interpretations in a domain-specific interpretable feature space (e.g. the
frequency domain) whereas attributions to the raw features (e.g. the pixel
space) may be unintelligible or even misleading. To address this challenge, we
propose TRIM (TRansformation IMportance), a novel approach which attributes
importances to features in a transformed space and can be applied post-hoc to a
fully trained model. TRIM is motivated by a cosmological parameter estimation
problem using deep neural networks (DNNs) on simulated data, but it is
generally applicable across domains/models and can be combined with any local
interpretation method. In our cosmology example, combining TRIM with contextual
decomposition shows promising results for identifying which frequencies a DNN
uses, helping cosmologists to understand and validate that the model learns
appropriate physical features rather than simulation artifacts.
- Abstract(参考訳): 機械学習は、科学的発見、知識の生成、人工知能の新たな可能性の中心にある。
その潜在的な利点は、予測精度を超えて解釈可能性に焦点を当てることである。
特に、多くの科学的問題はドメイン固有の解釈可能な特徴空間(例えば周波数領域)の解釈を必要とするが、生の特徴(例えばピクセル空間)への帰属は理解できないか、あるいは誤解を招く。
この課題に対処するために、変換空間における特徴に重きを置く新しいアプローチであるTRIM(TRansformation IMportance)を提案し、完全に訓練されたモデルにポストホックを適用する。
trimは、シミュレーションデータにディープニューラルネットワーク(dnn)を用いた宇宙論的パラメータ推定問題に動機づけられているが、一般にドメイン/モデルにまたがって適用され、任意のローカル解釈法と組み合わせることができる。
宇宙論の例では、TRIMと文脈分解を組み合わせることで、DNNがどの周波数を使うかを特定するための有望な結果が示され、宇宙学者がシミュレーションアーティファクトよりも適切な物理的特徴を学習するのに役立つ。
関連論文リスト
- Spherinator and HiPSter: Representation Learning for Unbiased Knowledge Discovery from Simulations [0.0]
我々は、幅広いシミュレーションから有用な科学的洞察を得るための、新しい、偏見のない、機械学習に基づくアプローチについて説明する。
我々の概念は、低次元空間におけるデータのコンパクトな表現を学習するために非線形次元削減を適用することに基づいている。
本稿では、回転不変な超球面変動畳み込み自己エンコーダを用いて、潜時空間の電力分布を利用して、IllustrisTNGシミュレーションから銀河を訓練したプロトタイプを提案する。
論文 参考訳(メタデータ) (2024-06-06T07:34:58Z) - Domain Adaptive Graph Neural Networks for Constraining Cosmological Parameters Across Multiple Data Sets [40.19690479537335]
DA-GNNは,データセット間のタスクにおいて高い精度とロバスト性を実現する。
このことは、DA-GNNがドメインに依存しない宇宙情報を抽出するための有望な方法であることを示している。
論文 参考訳(メタデータ) (2023-11-02T20:40:21Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - NeuralClothSim: Neural Deformation Fields Meet the Thin Shell Theory [70.10550467873499]
薄型シェルを用いた新しい擬似布シミュレータであるNeuralClothSimを提案する。
メモリ効率の高い解法はニューラル変形場と呼ばれる新しい連続座標に基づく表面表現を演算する。
論文 参考訳(メタデータ) (2023-08-24T17:59:54Z) - Explicit Context Integrated Recurrent Neural Network for Sensor Data
Applications [0.0]
Context Integrated RNN (CiRNN) は、コンテキスト特徴の形式で表現された明示的なコンテキストの統合を可能にする。
実験では、最先端モデルよりもそれぞれ39%と87%の改善が見られた。
論文 参考訳(メタデータ) (2023-01-12T13:58:56Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Accelerating Understanding of Scientific Experiments with End to End
Symbolic Regression [12.008215939224382]
生データから自由形記号表現を学習する問題に対処するディープニューラルネットワークを開発した。
ニューラルネットワークを、長さの異なるデータテーブルとノイズのレベルからなる合成データセットでトレーニングする。
行動科学の公開データセット上で動作させることで、我々の技術を検証する。
論文 参考訳(メタデータ) (2021-12-07T22:28:53Z) - How to quantify fields or textures? A guide to the scattering transform [0.0]
散乱変換(Mallat 2012)は、CNNから数学的アイデアを借用する強力な統計学であり、いかなる訓練も必要とせず、解釈可能である。
視覚的解釈を伴う比較的コンパクトな要約統計情報を提供し、関連する情報の大半を幅広い科学的応用で伝達することを示す。
論文 参考訳(メタデータ) (2021-11-30T22:11:54Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Evidential Sparsification of Multimodal Latent Spaces in Conditional
Variational Autoencoders [63.46738617561255]
訓練された条件付き変分オートエンコーダの離散潜時空間をスパース化する問題を考察する。
顕在的理論を用いて、特定の入力条件から直接証拠を受け取る潜在クラスを特定し、そうでないクラスをフィルタリングする。
画像生成や人間の行動予測などの多様なタスクの実験により,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-10-19T01:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。