論文の概要: Multiblock-Networks: A Neural Network Analog to Component Based Methods
for Multi-Source Data
- arxiv url: http://arxiv.org/abs/2109.10279v1
- Date: Tue, 21 Sep 2021 16:00:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:32:28.676541
- Title: Multiblock-Networks: A Neural Network Analog to Component Based Methods
for Multi-Source Data
- Title(参考訳): Multiblock-Networks: マルチソースデータのためのコンポーネントベースの手法へのニューラルネットワークアナログ
- Authors: Anna Jenul and Stefan Schrunner and Runar Helin and Kristian Hovde
Liland and Cecilia Marie Futs{\ae}ther and Oliver Tomic
- Abstract要約: 本稿では,コンポーネントベース統計モデルの概念をニューラルネットワークアーキテクチャに転送する手法を提案する。
これにより、ニューラルネットワークの柔軟性と、マルチブロック手法におけるブロック関連性を解釈する概念を組み合わせる。
この結果から,通常のフィードフォワードニューラルネットワークの性能に適合しながら,マルチブロックネットワークが基本モデル解釈を可能にしたことが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training predictive models on datasets from multiple sources is a common, yet
challenging setup in applied machine learning. Even though model interpretation
has attracted more attention in recent years, many modeling approaches still
focus mainly on performance. To further improve the interpretability of machine
learning models, we suggest the adoption of concepts and tools from the
well-established framework of component based multiblock analysis, also known
as chemometrics. Nevertheless, artificial neural networks provide greater
flexibility in model architecture and thus, often deliver superior predictive
performance. In this study, we propose a setup to transfer the concepts of
component based statistical models, including multiblock variants of principal
component regression and partial least squares regression, to neural network
architectures. Thereby, we combine the flexibility of neural networks with the
concepts for interpreting block relevance in multiblock methods. In two use
cases we demonstrate how the concept can be implemented in practice, and
compare it to both common feed-forward neural networks without blocks, as well
as statistical component based multiblock methods. Our results underline that
multiblock networks allow for basic model interpretation while matching the
performance of ordinary feed-forward neural networks.
- Abstract(参考訳): 複数のソースからデータセットの予測モデルをトレーニングすることは、応用機械学習において一般的だが難しい設定である。
近年、モデル解釈が注目されているが、多くのモデリングアプローチは依然としてパフォーマンスに重点を置いている。
機械学習モデルの解釈性をさらに向上するため、我々は、化学計測として知られるコンポーネントベースマルチブロック分析の確立したフレームワークから概念とツールの採用を提案する。
それでも、人工ニューラルネットワークはモデルアーキテクチャの柔軟性が向上し、しばしば予測性能が向上する。
本研究では,主成分回帰と部分最小二乗回帰のマルチブロック変種を含む,コンポーネントベース統計モデルの概念をニューラルネットワークアーキテクチャに転送する手法を提案する。
これにより、ニューラルネットワークの柔軟性とマルチブロック手法におけるブロック関連性を解釈する概念を組み合わせる。
2つのユースケースにおいて、概念を実際に実装する方法を示し、ブロックのない一般的なフィードフォワードニューラルネットワークと、統計的なコンポーネントベースのマルチブロックメソッドの両方と比較する。
この結果から,通常のフィードフォワードニューラルネットワークの性能に適合しながら,基本モデル解釈が可能なマルチブロックネットワークが得られた。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - Connections between Numerical Algorithms for PDEs and Neural Networks [8.660429288575369]
偏微分方程式(PDE)とニューラルネットワークの数値アルゴリズム間の多数の構造的関係について検討する。
私たちのゴールは、豊富な数学的基礎をPDEの世界からニューラルネットワークに移すことです。
論文 参考訳(メタデータ) (2021-07-30T16:42:45Z) - Creating Powerful and Interpretable Models withRegression Networks [2.2049183478692584]
本稿では,ニューラルネットワークのパワーと回帰分析の可視性を組み合わせた新しいアーキテクチャRegression Networksを提案する。
これらのモデルが,いくつかのベンチマークデータセット上での解釈可能なモデルの最先端性能を上回ることを実証する。
論文 参考訳(メタデータ) (2021-07-30T03:37:00Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Fully differentiable model discovery [0.0]
ニューラルネットワークに基づくサロゲートとスパースベイズ学習を組み合わせたアプローチを提案する。
我々の研究は、PINNを様々なタイプのニューラルネットワークアーキテクチャに拡張し、ニューラルネットワークベースのサロゲートをベイズパラメータ推論のリッチフィールドに接続する。
論文 参考訳(メタデータ) (2021-06-09T08:11:23Z) - deepregression: a Flexible Neural Network Framework for Semi-Structured
Deep Distributional Regression [1.4909973741292273]
Deepregressionは、それぞれディープラーニングライブラリとPyTorchを使用して、RとPythonの両方で実装されている。
Deepregressionは、それぞれディープラーニングライブラリとPyTorchを使用して、RとPythonの両方で実装されている。
論文 参考訳(メタデータ) (2021-04-06T17:56:31Z) - SPINN: Sparse, Physics-based, and Interpretable Neural Networks for PDEs [0.0]
Sparse, Physics-based, and Interpretable Neural Networks (SPINN) のクラスを導入し,一般微分方程式と部分微分方程式を解く。
従来のPDEのソリューションのメッシュレス表現を特別なスパースディープニューラルネットワークとして再解釈することにより、解釈可能なスパースニューラルネットワークアーキテクチャのクラスを開発する。
論文 参考訳(メタデータ) (2021-02-25T17:45:50Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。