論文の概要: A Field Guide to Scientific XAI: Transparent and Interpretable Deep
Learning for Bioinformatics Research
- arxiv url: http://arxiv.org/abs/2110.08253v1
- Date: Wed, 13 Oct 2021 07:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-24 03:44:00.196189
- Title: A Field Guide to Scientific XAI: Transparent and Interpretable Deep
Learning for Bioinformatics Research
- Title(参考訳): XAIのフィールドガイド:バイオインフォマティクス研究のための透明で解釈可能な深層学習
- Authors: Thomas P Quinn, Sunil Gupta, Svetha Venkatesh, Vuong Le
- Abstract要約: この記事では、透過的なモデル設計のフィールドガイドとなる。
透明なモデル設計概念の分類、設計概念を実践するための実践的なワークフロー、設計選択を報告するための一般的なテンプレートを提供する。
- 参考スコア(独自算出の注目度): 48.587021833307574
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning has become popular because of its potential to achieve high
accuracy in prediction tasks. However, accuracy is not always the only goal of
statistical modelling, especially for models developed as part of scientific
research. Rather, many scientific models are developed to facilitate scientific
discovery, by which we mean to abstract a human-understandable representation
of the natural world. Unfortunately, the opacity of deep neural networks limit
their role in scientific discovery, creating a new demand for models that are
transparently interpretable. This article is a field guide to transparent model
design. It provides a taxonomy of transparent model design concepts, a
practical workflow for putting design concepts into practice, and a general
template for reporting design choices. We hope this field guide will help
researchers more effectively design transparently interpretable models, and
thus enable them to use deep learning for scientific discovery.
- Abstract(参考訳): 予測タスクにおいて高い精度を達成できる可能性から、ディープラーニングが普及している。
しかし、特に科学的研究の一部として開発されたモデルにとって、統計モデリングの目標は必ずしも正確さだけではない。
むしろ、多くの科学モデルが科学的発見を促進するために開発されており、それは自然界の人間の理解可能な表現を抽象化することを意味する。
残念ながら、ディープニューラルネットワークの不透明さは、科学的発見におけるその役割を制限し、透過的に解釈可能なモデルに対する新たな需要を生み出している。
この記事では、透過的なモデル設計のフィールドガイドとなる。
透明なモデル設計概念の分類、設計概念を実践するための実践的なワークフロー、設計選択を報告するための一般的なテンプレートを提供する。
このフィールドガイドは、研究者がより効果的に透過的に解釈可能なモデルを設計し、深層学習を科学的な発見に役立てることを願っている。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Knowledge AI: Fine-tuning NLP Models for Facilitating Scientific Knowledge Extraction and Understanding [0.0]
本研究は,Large Language Models (LLMs) の,特定の領域における科学的知識の理解と抽出における有効性について検討する。
トレーニング済みのモデルを採用し、科学領域のデータセットを微調整します。
論文 参考訳(メタデータ) (2024-08-04T01:32:09Z) - Learn From Model Beyond Fine-Tuning: A Survey [78.80920533793595]
Learn From Model (LFM) は、モデルインターフェースに基づいた基礎モデル(FM)の研究、修正、設計に焦点を当てている。
LFM技術の研究は、モデルチューニング、モデル蒸留、モデル再利用、メタラーニング、モデル編集の5つの分野に大別できる。
本稿では, LFM の観点から, FM に基づく現在の手法を概観する。
論文 参考訳(メタデータ) (2023-10-12T10:20:36Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Designing Novel Cognitive Diagnosis Models via Evolutionary
Multi-Objective Neural Architecture Search [13.9289351255891]
進化的多目的ニューラルアーキテクチャサーチ(NAS)による新しい認知診断モデルの自動設計を提案する。
2つの実世界のデータセットに対する実験により、提案手法によって探索された認知診断モデルは、既存のモデルよりもはるかに優れた性能を示し、人間設計モデルと同じくらい優れた解釈性を有することが示された。
論文 参考訳(メタデータ) (2023-07-10T09:09:26Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Efficient Deep Learning: A Survey on Making Deep Learning Models
Smaller, Faster, and Better [0.0]
ディープラーニングモデルの進歩的な改善により、パラメータの数、レイテンシ、トレーニングに必要なリソースなどが大幅に増加した。
深層学習における効率性の問題の提示と動機付けを行い,続いてモデル効率の5つの中核領域を徹底的に調査した。
これは、モデリング技術からハードウェアサポートまで、モデル効率のランドスケープをカバーした、効率的なディープラーニング分野における初めての総合的な調査であると考えています。
論文 参考訳(メタデータ) (2021-06-16T17:31:38Z) - Modeling the EdNet Dataset with Logistic Regression [0.0]
私たちは、教育データマイニングの観点から競争の経験を説明します。
我々は,kaggleシステムにおける基礎的結果と,その改善の可能性について考察した。
論文 参考訳(メタデータ) (2021-05-17T20:30:36Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。