論文の概要: Visual Neural Decomposition to Explain Multivariate Data Sets
- arxiv url: http://arxiv.org/abs/2009.05502v1
- Date: Fri, 11 Sep 2020 15:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 22:10:34.059202
- Title: Visual Neural Decomposition to Explain Multivariate Data Sets
- Title(参考訳): 多変量データセットを説明するための視覚神経分解
- Authors: Johannes Knittel, Andres Lalama, Steffen Koch, and Thomas Ertl
- Abstract要約: 多次元データセットにおける変数間の関係を調べることは、データアナリストとエンジニアにとって共通の課題である。
本稿では,入力変数と対象変数との相関関係を可視化する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 13.117139248511783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Investigating relationships between variables in multi-dimensional data sets
is a common task for data analysts and engineers. More specifically, it is
often valuable to understand which ranges of which input variables lead to
particular values of a given target variable. Unfortunately, with an increasing
number of independent variables, this process may become cumbersome and
time-consuming due to the many possible combinations that have to be explored.
In this paper, we propose a novel approach to visualize correlations between
input variables and a target output variable that scales to hundreds of
variables. We developed a visual model based on neural networks that can be
explored in a guided way to help analysts find and understand such
correlations. First, we train a neural network to predict the target from the
input variables. Then, we visualize the inner workings of the resulting model
to help understand relations within the data set. We further introduce a new
regularization term for the backpropagation algorithm that encourages the
neural network to learn representations that are easier to interpret visually.
We apply our method to artificial and real-world data sets to show its utility.
- Abstract(参考訳): 多次元データセットにおける変数間の関係を調べることは、データアナリストやエンジニアにとって共通のタスクである。
より具体的には、入力変数のどの範囲が与えられた対象変数の特定の値につながるかを理解することがしばしば重要である。
残念なことに、独立変数の数が増えているため、このプロセスは探索すべき多くの組み合わせのために煩雑で時間がかかる可能性がある。
本稿では,入力変数と数百の変数にスケールする対象出力変数との相関を可視化する新しい手法を提案する。
我々は、ニューラルネットワークに基づく視覚モデルを開発し、分析者がそのような相関関係を発見して理解するのに役立つガイド付き方法で探索した。
まず、入力変数からターゲットを予測するためにニューラルネットワークを訓練する。
そして、結果モデルの内部動作を可視化し、データセット内の関係を理解するのに役立つ。
さらに、バックプロパゲーションアルゴリズムの新しい正規化用語を導入し、ニューラルネットワークが視覚的に容易に解釈できる表現を学習することを奨励する。
本手法を実世界のデータセットに適用し,その有用性を示す。
関連論文リスト
- Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Structured Latent Variable Models for Articulated Object Interaction [24.97457132614502]
本研究では,ロボットがドアの開閉映像からドアの低次元表現を学習するシナリオについて検討する。
この表現は、ドア関連のパラメータを推測し、ドアとの相互作用の結果を予測するために使用することができる。
論文 参考訳(メタデータ) (2023-05-26T01:22:35Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Detection of Interacting Variables for Generalized Linear Models via
Neural Networks [0.0]
本稿では,一般化線形モデル(GLM)に付加されるべき相互作用を見つけるプロセスを自動化するアプローチを提案する。
提案手法はニューラルネットワークとモデル固有の相互作用検出法に依存しており,Friedman H-StatisticやSHAP値といった従来の手法よりも高速に計算することができる。
数値解析では,人工的に生成したデータとオープンソースデータに対するアプローチの結果について述べる。
論文 参考訳(メタデータ) (2022-09-16T16:16:45Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Triplot: model agnostic measures and visualisations for variable
importance in predictive models that take into account the hierarchical
correlation structure [3.0036519884678894]
変数間の相関に関する情報を利用してモデル解析を支援する新しい手法を提案する。
ユーザが提案した変数群(アスペクト)と、自動的に決定される変数群(アスペクト)を解析する方法を紹介します。
また,可変グルーピングの階層構造を利用して高情報密度モデル可視化を行うtriplotという新しいタイプのモデル可視化手法を提案する。
論文 参考訳(メタデータ) (2021-04-07T21:29:03Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Malicious Network Traffic Detection via Deep Learning: An Information
Theoretic View [0.0]
本研究では,ホメオモルフィズムがマルウェアのトラフィックデータセットの学習表現に与える影響について検討する。
この結果から,学習された表現の詳細と,すべてのパラメータの多様体上で定義された特定の座標系は,関数近似とは全く異なることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T15:37:44Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Learning Latent Causal Structures with a Redundant Input Neural Network [9.044150926401574]
入力が出力を引き起こすことは知られており、これらの因果関係は潜伏変数の集合の因果関係によって符号化される。
我々は、改良されたアーキテクチャと正規化された目的関数を備えた冗長入力ニューラルネットワーク(RINN)と呼ばれるディープラーニングモデルを開発する。
一連のシミュレーション実験により、RINN法は入力変数と出力変数の間の潜伏因果構造を回復することに成功した。
論文 参考訳(メタデータ) (2020-03-29T20:52:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。