論文の概要: Consistency of Feature Attribution in Deep Learning Architectures for Multi-Omics
- arxiv url: http://arxiv.org/abs/2507.22877v1
- Date: Wed, 30 Jul 2025 17:53:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.377892
- Title: Consistency of Feature Attribution in Deep Learning Architectures for Multi-Omics
- Title(参考訳): マルチオミクスのためのディープラーニングアーキテクチャにおける特徴属性の一貫性
- Authors: Daniel Claborne, Javier Flores, Samantha Erwin, Luke Durell, Rachel Richardson, Ruby Fore, Lisa Bramer,
- Abstract要約: マルチオミクスデータに適用した多視点深層学習モデルにおけるShapley Additive Explanations (SHAP)の使用について検討する。
SHAPによる機能ランキングは、メソッドの一貫性を評価するために様々なアーキテクチャで比較される。
本稿では,重要な生体分子の同定の堅牢性を評価する方法を提案する。
- 参考スコア(独自算出の注目度): 0.36646002427839136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine and deep learning have grown in popularity and use in biological research over the last decade but still present challenges in interpretability of the fitted model. The development and use of metrics to determine features driving predictions and increase model interpretability continues to be an open area of research. We investigate the use of Shapley Additive Explanations (SHAP) on a multi-view deep learning model applied to multi-omics data for the purposes of identifying biomolecules of interest. Rankings of features via these attribution methods are compared across various architectures to evaluate consistency of the method. We perform multiple computational experiments to assess the robustness of SHAP and investigate modeling approaches and diagnostics to increase and measure the reliability of the identification of important features. Accuracy of a random-forest model fit on subsets of features selected as being most influential as well as clustering quality using only these features are used as a measure of effectiveness of the attribution method. Our findings indicate that the rankings of features resulting from SHAP are sensitive to the choice of architecture as well as different random initializations of weights, suggesting caution when using attribution methods on multi-view deep learning models applied to multi-omics data. We present an alternative, simple method to assess the robustness of identification of important biomolecules.
- Abstract(参考訳): 機械学習とディープラーニングは、過去10年間にわたって生物学研究で人気を博してきたが、いまだに適合したモデルの解釈可能性に挑戦している。
予測を駆動し、モデルの解釈可能性を高めるためのメトリクスの開発と利用は、研究のオープンな領域であり続けている。
生体分子の同定を目的とした多視点深層学習モデルにおけるShapley Additive Explanations (SHAP) の利用について検討した。
これらの属性法による特徴のランク付けは、様々なアーキテクチャで比較され、手法の整合性を評価する。
我々は、SHAPの堅牢性を評価するために複数の計算実験を行い、重要な特徴の同定の信頼性を高めるためのモデリング手法と診断について検討する。
これらの特徴のみを用いたクラスタリング品質だけでなく、最も影響力のある特徴のサブセットに適合するランダムフォレストモデルの精度は、属性法の有効性の尺度として用いられる。
以上の結果から,SHAPから得られる特徴のランキングは,重みのランダムな初期化だけでなく,アーキテクチャの選択にも敏感であることが示唆された。
本稿では,重要な生体分子の同定の堅牢性を評価する方法を提案する。
関連論文リスト
- Interpretable Credit Default Prediction with Ensemble Learning and SHAP [3.948008559977866]
本研究では、信用デフォルト予測の問題に焦点をあて、機械学習に基づくモデリングフレームワークを構築し、様々な主流分類アルゴリズムの比較実験を行う。
その結果、アンサンブル学習法は、特に特徴とデータ不均衡問題の間の複雑な非線形関係を扱う際に、予測性能に明らかな利点があることが示唆された。
外部クレジットスコア変数はモデル決定において主要な役割を担い、モデルの解釈可能性と実用的な応用価値を改善するのに役立ちます。
論文 参考訳(メタデータ) (2025-05-27T07:23:22Z) - PyTDC: A multimodal machine learning training, evaluation, and inference platform for biomedical foundation models [59.17570021208177]
PyTDCは、マルチモーダルな生物学的AIモデルのための合理化されたトレーニング、評価、推論ソフトウェアを提供する機械学習プラットフォームである。
本稿では、PyTDCのアーキテクチャの構成要素と、我々の知る限り、導入したシングルセルドラッグターゲットMLタスクにおける第一種ケーススタディについて論じる。
論文 参考訳(メタデータ) (2025-05-08T18:15:38Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Out-of-Distribution Detection via Deep Multi-Comprehension Ensemble [11.542472900306745]
マルチComprehension (MC) Ensemble は,OOD (Out-of-Distribution) 特徴表現を拡大するための戦略として提案されている。
OOD検出におけるMC Ensemble戦略の優れた性能を示す実験結果を得た。
これにより,提案手法がトレーニング分布外のインスタンスを検出できるモデルの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2024-03-24T18:43:04Z) - Different Algorithms (Might) Uncover Different Patterns: A Brain-Age
Prediction Case Study [8.597209503064128]
脳波研究による脳年齢予測の確立された仮説が、アルゴリズム全体にわたって検証されるかどうかを検討する。
使用した特定のデータセットに対して最先端のパフォーマンスを達成したモデルはほとんどありません。
論文 参考訳(メタデータ) (2024-02-08T19:55:07Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - DCID: Deep Canonical Information Decomposition [84.59396326810085]
本稿では,2つの1次元目標変数間で共有される信号の同定について考察する。
そこで本研究では,地中トラスラベルの存在下で使用可能な評価指標であるICMを提案する。
また、共有変数を学習するための単純かつ効果的なアプローチとして、Deep Canonical Information Decomposition (DCID)を提案する。
論文 参考訳(メタデータ) (2023-06-27T16:59:06Z) - Ensembling improves stability and power of feature selection for deep
learning models [11.973624420202388]
本稿では,ディープラーニングモデルの設計と訓練における本質性によって,一般的に用いられる特徴重要度スコアが不安定になることを示す。
我々は、異なるエポックにおけるモデルの重要度スコアのアンサンブルについて検討し、この単純なアプローチがこの問題に実質的に対処できることを見出した。
訓練されたモデルの特徴的重要度を組み合わせるためのフレームワークを提案し、一つのベストモデルから特徴を選択する代わりに、多くの優れたモデルから特徴的重要度スコアのアンサンブルを実行する。
論文 参考訳(メタデータ) (2022-10-02T19:07:53Z) - Latent Properties of Lifelong Learning Systems [59.50307752165016]
本稿では,生涯学習アルゴリズムの潜伏特性を推定するために,アルゴリズムに依存しないサロゲート・モデリング手法を提案する。
合成データを用いた実験により,これらの特性を推定するためのアプローチを検証する。
論文 参考訳(メタデータ) (2022-07-28T20:58:13Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。