論文の概要: Convolutional Motif Kernel Networks
- arxiv url: http://arxiv.org/abs/2111.02272v3
- Date: Fri, 6 Oct 2023 12:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 17:22:29.590338
- Title: Convolutional Motif Kernel Networks
- Title(参考訳): 畳み込みモチーフカーネルネットワーク
- Authors: Jonas C. Ditz, Bernhard Reuter, Nico Pfeifer
- Abstract要約: 我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
- 参考スコア(独自算出の注目度): 1.104960878651584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial neural networks show promising performance in detecting
correlations within data that are associated with specific outcomes. However,
the black-box nature of such models can hinder the knowledge advancement in
research fields by obscuring the decision process and preventing scientist to
fully conceptualize predicted outcomes. Furthermore, domain experts like
healthcare providers need explainable predictions to assess whether a predicted
outcome can be trusted in high stakes scenarios and to help them integrating a
model into their own routine. Therefore, interpretable models play a crucial
role for the incorporation of machine learning into high stakes scenarios like
healthcare. In this paper we introduce Convolutional Motif Kernel Networks, a
neural network architecture that involves learning a feature representation
within a subspace of the reproducing kernel Hilbert space of the position-aware
motif kernel function. The resulting model enables to directly interpret and
evaluate prediction outcomes by providing a biologically and medically
meaningful explanation without the need for additional post-hoc analysis. We
show that our model is able to robustly learn on small datasets and reaches
state-of-the-art performance on relevant healthcare prediction tasks. Our
proposed method can be utilized on DNA and protein sequences. Furthermore, we
show that the proposed method learns biologically meaningful concepts directly
from data using an end-to-end learning scheme.
- Abstract(参考訳): ニューラルネットワークは、特定の結果に関連するデータ内の相関を検出することに有望な性能を示す。
しかし、そのようなモデルのブラックボックスの性質は、決定過程を省略し、科学者が予測結果を完全に概念化するのを防ぎ、研究分野の知識の進歩を妨げる可能性がある。
さらに、医療提供者のようなドメインの専門家は、予測された結果が高い利害関係のシナリオで信頼できるかどうかを判断し、モデルが自身のルーチンに統合されるのを助けるために、説明可能な予測が必要である。
したがって、解釈可能なモデルは、医療のような高リスクシナリオに機械学習を組み込む上で重要な役割を果たす。
本稿では、位置認識型モチーフカーネル関数の再生カーネルヒルベルト空間のサブ空間内の特徴表現を学習するニューラルネットワークアーキテクチャであるConvolutional Motif Kernel Networksを紹介する。
得られたモデルは、追加のポストホック解析を必要とせずに、生物学的および医学的に有意義な説明を提供することにより、予測結果を直接解釈し、評価することができる。
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
さらに,本手法はエンド・ツー・エンドの学習手法を用いて,データから直接生物学的に有意義な概念を学習することを示す。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - Unraveling Feature Extraction Mechanisms in Neural Networks [10.13842157577026]
本稿では, ニューラルネットワークカーネル(NTK)に基づく理論的手法を提案し, そのメカニズムを解明する。
これらのモデルが勾配降下時の統計的特徴をどのように活用し、最終決定にどのように統合されるかを明らかにする。
自己注意モデルとCNNモデルはn-gramの学習の限界を示すが、乗算モデルはこの領域で優れていると考えられる。
論文 参考訳(メタデータ) (2023-10-25T04:22:40Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Visual Interpretable and Explainable Deep Learning Models for Brain
Tumor MRI and COVID-19 Chest X-ray Images [0.0]
我々は、ディープニューラルネットワークが医療画像をどのように分析するかを照らすための属性手法を評価する。
我々は近年の深層畳み込みニューラルネットワークモデルによる脳腫瘍MRIと新型コロナウイルス胸部X線データセットからの予測を属性とした。
論文 参考訳(メタデータ) (2022-08-01T16:05:14Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Interpretable Neural Networks for Panel Data Analysis in Economics [10.57079240576682]
本稿では,高い予測精度と解釈可能性の両方を達成可能な,解釈可能なニューラルネットワークモデルのクラスを提案する。
高次元の行政データを用いて、個人の月間雇用状況を予測するモデルを適用した。
テストセットの精度は94.5%で、従来の機械学習手法に匹敵する。
論文 参考訳(メタデータ) (2020-10-11T18:40:22Z) - An Investigation of Interpretability Techniques for Deep Learning in
Predictive Process Analytics [2.162419921663162]
本稿では、深層ニューラルネットワークとランダムフォレストという、医学的意思決定文学において最も成功した学習アルゴリズムの2つの解釈可能性手法について検討する。
我々は,患者のがんの種類を予測するためのモデルを学ぶ。
がんのタイプに関する有用な洞察を提供する予測に使用される特定の特徴と、十分に一般化されていない特徴が見られます。
論文 参考訳(メタデータ) (2020-02-21T09:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。