論文の概要: Neural Networks beyond explainability: Selective inference for sequence
motifs
- arxiv url: http://arxiv.org/abs/2212.12542v1
- Date: Fri, 23 Dec 2022 10:49:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 14:06:41.158467
- Title: Neural Networks beyond explainability: Selective inference for sequence
motifs
- Title(参考訳): 説明可能性を超えたニューラルネットワーク:シーケンスモチーフの選択的推論
- Authors: Antoine Villi\'e, Philippe Veber, Yohann de Castro, Laurent Jacob
- Abstract要約: 抽出した特徴と予測表現型との関連性をテストするための選択的推論手法であるSEISMを紹介する。
我々は、この選択を無限集合から大きくても有限な格子に量子化することで、既存のサンプリングベース選択推論手法を適用する。
パラメータの特定の選択の下でのサンプリングは、通常選択推論に使用される合成ヌル仮説を特徴づけるのに十分であることを示す。
- 参考スコア(独自算出の注目度): 5.620334754517149
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over the past decade, neural networks have been successful at making
predictions from biological sequences, especially in the context of regulatory
genomics. As in other fields of deep learning, tools have been devised to
extract features such as sequence motifs that can explain the predictions made
by a trained network. Here we intend to go beyond explainable machine learning
and introduce SEISM, a selective inference procedure to test the association
between these extracted features and the predicted phenotype. In particular, we
discuss how training a one-layer convolutional network is formally equivalent
to selecting motifs maximizing some association score. We adapt existing
sampling-based selective inference procedures by quantizing this selection over
an infinite set to a large but finite grid. Finally, we show that sampling
under a specific choice of parameters is sufficient to characterize the
composite null hypothesis typically used for selective inference-a result that
goes well beyond our particular framework. We illustrate the behavior of our
method in terms of calibration, power and speed and discuss its power/speed
trade-off with a simpler data-split strategy. SEISM paves the way to an easier
analysis of neural networks used in regulatory genomics, and to more powerful
methods for genome wide association studies (GWAS).
- Abstract(参考訳): 過去10年間、ニューラルネットワークは、特に規制ゲノム学の文脈において、生物学的配列から予測することに成功した。
ディープラーニングの他の分野と同様に、トレーニングされたネットワークによる予測を説明するシーケンスモチーフなどの特徴を抽出するツールが考案されている。
ここでは、説明可能な機械学習を超えて、抽出した特徴と予測表現型との関連性をテストするための選択推論手法SEISMを導入する。
特に、一層畳み込みネットワークのトレーニングが、ある連想スコアを最大化するモチーフの選択と形式的に同等であるかについて議論する。
我々は、この選択を無限集合から大きくても有限な格子に量子化することで、既存のサンプリングベース選択推論手法を適用する。
最後に、特定のパラメータの選択の下でサンプリングすることは、選択推論に一般的に使用される複合ヌル仮説を特徴付けるのに十分であることを示す。
キャリブレーション, パワー, スピードの観点から本手法の挙動を解説し, より単純なデータ分割戦略でその電力/速度トレードオフについて議論する。
seismは、制御ゲノミクスで使用されるニューラルネットワークのより簡単な分析と、ゲノムワイドアソシエーション研究(gwas)のためのより強力な方法への道を開く。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Continual Learning via Sequential Function-Space Variational Inference [65.96686740015902]
連続学習を逐次関数空間変動推論として定式化した目的を提案する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案した目的はより柔軟な変動分布を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によってトレーニングされたニューラルネットワークは、関連する手法でトレーニングされたネットワークよりも予測精度が良いことを実証した。
論文 参考訳(メタデータ) (2023-12-28T18:44:32Z) - Towards Optimal Neural Networks: the Role of Sample Splitting in
Hyperparameter Selection [10.083181657981292]
我々はニューラルネットワークの有効性を理解するための新しい理論を構築した。
具体的には、ニューラルネットワークモデルの構築において、共通の実践の基礎となる理論的根拠について検討する。
論文 参考訳(メタデータ) (2023-07-15T06:46:40Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - Sparse-Input Neural Network using Group Concave Regularization [10.103025766129006]
ニューラルネットワークでは、同時特徴選択と非線形関数推定が困難である。
低次元と高次元の両方の設定における特徴選択のための群凹正規化を用いたスパースインプットニューラルネットワークの枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-01T13:47:09Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - TANGOS: Regularizing Tabular Neural Networks through Gradient
Orthogonalization and Specialization [69.80141512683254]
TANGOS(Tbular Neural Gradient Orthogonalization and gradient)を紹介する。
TANGOSは、潜在ユニット属性上に構築された表の設定を正規化するための新しいフレームワークである。
提案手法は,他の一般的な正規化手法よりも優れ,サンプル外一般化性能の向上につながることを実証する。
論文 参考訳(メタデータ) (2023-03-09T18:57:13Z) - An Overview of Uncertainty Quantification Methods for Infinite Neural
Networks [0.0]
無限幅ニューラルネットワークにおける不確実性を定量化する手法について検討する。
我々は、予測の不確実性に対する厳密な閉形式解を得るために、いくつかの等価結果を利用する。
論文 参考訳(メタデータ) (2022-01-13T00:03:22Z) - Consistent Feature Selection for Analytic Deep Neural Networks [3.42658286826597]
分析深層ネットワークにおける特徴選択の問題について検討する。
我々は、広範囲のネットワークに対して、グループラッソによる適応群ラッソ選択手順が選択整合であることを証明する。
この研究は、Group Lassoがニューラルネットワークによる特徴選択に非効率であることのさらなる証拠を提供する。
論文 参考訳(メタデータ) (2020-10-16T01:59:53Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Consistent feature selection for neural networks via Adaptive Group
Lasso [3.42658286826597]
ニューラルネットワークの重要な特徴を選択するための適応型グループの使用に関する理論的保証を提案し,確立する。
具体的には,1つの隠蔽層と双曲的タンジェント活性化関数を持つ単一出力フィードフォワードニューラルネットワークに対して,特徴選択法が整合であることを示す。
論文 参考訳(メタデータ) (2020-05-30T18:50:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。