論文の概要: Peeking inside the Black Box: Interpreting Deep Learning Models for
Exoplanet Atmospheric Retrievals
- arxiv url: http://arxiv.org/abs/2011.11284v2
- Date: Fri, 23 Jul 2021 15:46:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 03:21:16.674239
- Title: Peeking inside the Black Box: Interpreting Deep Learning Models for
Exoplanet Atmospheric Retrievals
- Title(参考訳): ブラックボックスの内部を覗く: 太陽系外惑星の大気観測のための深層学習モデル解釈
- Authors: Kai Hou Yip, Quentin Changeat, Nikolaos Nikolaou, Mario Morvan, Billy
Edwards, Ingo P. Waldmann, Giovanna Tinetti
- Abstract要約: 我々は3つの異なるDNNアーキテクチャを訓練し、外惑星スペクトルから大気パラメータを抽出し、3つ全てが良好な予測性能を発揮することを示す。
次に、DNNの予測を広範囲に分析し、与えられた機器やモデルに対する大気パラメータの信頼性限界を(特に)知らせる。
我々は、異なる分子に対して、DNNの予測が最も感度が高い波長範囲は、その特性吸収領域と実際に一致していると結論付けた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning algorithms are growing in popularity in the field of
exoplanetary science due to their ability to model highly non-linear relations
and solve interesting problems in a data-driven manner. Several works have
attempted to perform fast retrievals of atmospheric parameters with the use of
machine learning algorithms like deep neural networks (DNNs). Yet, despite
their high predictive power, DNNs are also infamous for being 'black boxes'. It
is their apparent lack of explainability that makes the astrophysics community
reluctant to adopt them. What are their predictions based on? How confident
should we be in them? When are they wrong and how wrong can they be? In this
work, we present a number of general evaluation methodologies that can be
applied to any trained model and answer questions like these. In particular, we
train three different popular DNN architectures to retrieve atmospheric
parameters from exoplanet spectra and show that all three achieve good
predictive performance. We then present an extensive analysis of the
predictions of DNNs, which can inform us - among other things - of the
credibility limits for atmospheric parameters for a given instrument and model.
Finally, we perform a perturbation-based sensitivity analysis to identify to
which features of the spectrum the outcome of the retrieval is most sensitive.
We conclude that for different molecules, the wavelength ranges to which the
DNN's predictions are most sensitive, indeed coincide with their characteristic
absorption regions. The methodologies presented in this work help to improve
the evaluation of DNNs and to grant interpretability to their predictions.
- Abstract(参考訳): 深層学習アルゴリズムは、高非線形関係をモデル化し、データ駆動方式で興味深い問題を解く能力によって、外惑星科学の分野で人気が高まっている。
いくつかの研究は、ディープニューラルネットワーク(DNN)のような機械学習アルゴリズムを用いて、大気パラメータの高速な検索を試みた。
しかし、高い予測力にもかかわらず、DNNは「ブラックボックス」としても悪名高い。
天体物理学のコミュニティがそれを採用するのを嫌うのは、説明可能性の明らかな欠如である。
彼らの予測は何に基づいていますか。
どの程度の自信を持つべきか?
彼らはいつ間違っているのか、どのくらい間違っているのか?
本稿では,トレーニングモデルに適用可能な一般的な評価手法をいくつか提示し,このような質問に回答する。
特に、外惑星スペクトルから大気パラメータを抽出するために3つの異なるDNNアーキテクチャを訓練し、3つとも良好な予測性能を示すことを示す。
次に、DNNの予測を広範囲に分析し、与えられた機器やモデルに対する大気パラメータの信頼性限界を(特に)知らせる。
最後に,摂動に基づく感度解析を行い,検索結果がどのスペクトルの特徴に最も敏感かを特定する。
我々は、異なる分子に対して、DNNの予測が最も感度が高い波長範囲は、その特性吸収領域と実際に一致していると結論付けた。
本研究で提示される手法は,DNNの評価を改善し,その予測に解釈可能性を与えるのに役立つ。
関連論文リスト
- Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - A Benchmark on Uncertainty Quantification for Deep Learning Prognostics [0.0]
診断学的な深層学習のための不確実性定量化の分野における最新の発展のいくつかを評価する。
これには、ベイズニューラルネットワーク(BNN)の最先端の変分推論アルゴリズムや、モンテカルロ・ドロップアウト(MCD)、ディープアンサンブル(DE)、ヘテロセダスティックニューラルネットワーク(HNN)などの一般的な代替品が含まれる。
この手法の性能は、NASA NCMAPSSの航空機エンジン用データセットのサブセットで評価される。
論文 参考訳(メタデータ) (2023-02-09T16:12:47Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Autoregressive Uncertainty Modeling for 3D Bounding Box Prediction [63.3021778885906]
3Dバウンディングボックスは、多くのコンピュータビジョンアプリケーションで広く使われている中間表現である。
本稿では,自己回帰モデルを利用して高い信頼度予測と意味のある不確実性対策を行う手法を提案する。
我々はシミュレーションデータセットであるCOB-3Dをリリースし、現実世界のロボティクスアプリケーションで発生する新しいタイプのあいまいさを強調します。
論文 参考訳(メタデータ) (2022-10-13T23:57:40Z) - Uncertainty Quantification of Sparse Travel Demand Prediction with
Spatial-Temporal Graph Neural Networks [4.488583779590991]
本研究では,空間的ゼロインフレーション型負二項グラフニューラルネットワーク(STZINB-GNN)を開発し,スパース走行需要の不確かさを定量化する。
拡散と時間的畳み込みネットワークを用いて空間的および時間的相関を解析し、それから融合して旅行需要の確率分布をパラメータ化する。
その結果,特に時空間分解能が高い場合,ベンチマークモデルよりもSTZINB-GNNの方が優れていることが示された。
論文 参考訳(メタデータ) (2022-08-11T16:21:10Z) - Human Trajectory Prediction via Neural Social Physics [63.62824628085961]
軌道予測は多くの分野において広く研究され、多くのモデルベースおよびモデルフリーな手法が研究されている。
ニューラル微分方程式モデルに基づく新しい手法を提案する。
我々の新しいモデル(ニューラル社会物理学またはNSP)は、学習可能なパラメータを持つ明示的な物理モデルを使用するディープニューラルネットワークである。
論文 参考訳(メタデータ) (2022-07-21T12:11:18Z) - Explainable Artificial Intelligence for Bayesian Neural Networks:
Towards trustworthy predictions of ocean dynamics [0.0]
ニューラルネットワークの信頼性は、不確実性を表現したり、スキルを説明する能力が欠けているため、しばしば疑問視される。
気候変動の応用など、高い利害関係の意思決定においてニューラルネットワークの利用が増加していることを考えると、これは問題となる可能性がある。
我々は、パラメータが決定論的ではなく分布であるベイズニューラルネットワーク(BNN)の実装に成功し、説明可能なAI(XAI)技術の新しい実装を適用することにより、両方の問題に対処する。
論文 参考訳(メタデータ) (2022-04-30T08:35:57Z) - Mixture of Linear Models Co-supervised by Deep Neural Networks [14.831346286039151]
本稿では,比較的単純な説明可能なモデルとディープニューラルネットワーク(DNN)モデルとのギャップを埋めるためのアプローチを提案する。
私たちの主なアイデアは、DNNからのガイダンスでトレーニングされた差別モデルの組み合わせです。
論文 参考訳(メタデータ) (2021-08-05T02:08:35Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Deep Transparent Prediction through Latent Representation Analysis [0.0]
本稿では,訓練されたディープニューラルネットワーク(DNN)から潜時情報を抽出し,予測目的のために効果的で統一された方法で解析された簡潔な表現を導出する,新しいディープラーニング手法を提案する。
透明性と高い予測精度を組み合わせることが、提案手法の目標である。
論文 参考訳(メタデータ) (2020-09-13T19:21:40Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。