論文の概要: Scientific Inference With Interpretable Machine Learning: Analyzing
Models to Learn About Real-World Phenomena
- arxiv url: http://arxiv.org/abs/2206.05487v1
- Date: Sat, 11 Jun 2022 10:13:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 10:12:56.305103
- Title: Scientific Inference With Interpretable Machine Learning: Analyzing
Models to Learn About Real-World Phenomena
- Title(参考訳): 解釈可能な機械学習による科学的推論--実世界現象を学習するためのモデル分析
- Authors: Timo Freiesleben, Gunnar K\"onig, Christoph Molnar and Alvaro
Tejero-Cantero
- Abstract要約: 解釈可能な機械学習(IML)は、機械学習モデルの振る舞いと特性に関するものである。
我々は、関連する現象特性を把握できるように、IML手法の開発方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretable machine learning (IML) is concerned with the behavior and the
properties of machine learning models. Scientists, however, are only interested
in the model as a gateway to understanding the modeled phenomenon. We show how
to develop IML methods such that they allow insight into relevant phenomenon
properties. We argue that current IML research conflates two goals of
model-analysis -- model audit and scientific inference. Thereby, it remains
unclear if model interpretations have corresponding phenomenon interpretation.
Building on statistical decision theory, we show that ML model analysis allows
to describe relevant aspects of the joint data probability distribution. We
provide a five-step framework for constructing IML descriptors that can help in
addressing scientific questions, including a natural way to quantify epistemic
uncertainty. Our phenomenon-centric approach to IML in science clarifies: the
opportunities and limitations of IML for inference; that conditional not
marginal sampling is required; and, the conditions under which we can trust IML
methods.
- Abstract(参考訳): 解釈可能な機械学習(IML)は、機械学習モデルの振る舞いと特性に関するものである。
しかし、科学者はモデルがモデル化された現象を理解するための入り口としてのみ興味を持っている。
我々は、関連する現象特性を把握できるように、IML手法の開発方法を示す。
現在のiml研究は、モデル分析の2つの目標 - モデル監査と科学的推論 - をまとめている。
したがって、モデル解釈が対応する現象解釈を持つかどうかは不明である。
統計決定理論に基づき、mlモデル解析により、統合データ確率分布の関連する側面を記述できることを示す。
我々は,認識の不確かさを定量化するための自然な方法を含む,科学的問題に対処するのに役立つ iml 記述子を構築するための5段階のフレームワークを提供する。
我々の科学におけるIMLに対する現象中心のアプローチは、推論のためのIMLの機会と限界、その条件は限界サンプリングではなく、IMLメソッドを信頼できる条件である。
関連論文リスト
- Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Scientific Language Modeling: A Quantitative Review of Large Language
Models in Molecular Science [27.874571056109758]
大規模言語モデル(LLM)は、自然言語処理(NLP)の観点から科学的問題に取り組むための新しいアプローチを提供する。
我々は、ChEBI-20-MMというマルチモーダルベンチマークを提案し、モデルとデータモダリティとの互換性と知識獲得を評価する1263の実験を行った。
我々の先駆的な分析は、学習メカニズムを探求し、分子科学におけるSLMの進歩の道を開くものである。
論文 参考訳(メタデータ) (2024-02-06T16:12:36Z) - Reliability and Interpretability in Science and Deep Learning [0.0]
この記事では、従来の科学的モデルとDeep Neural Network(DNN)モデルの比較に焦点を当てる。
DNNモデルの複雑さは、その信頼性と長期的進歩の予測を妨げていると論じている。
また、解釈可能性が、統計分析だけでは理解できないあらゆるモデルの信頼性を評価するための前提条件であることも明らかにした。
論文 参考訳(メタデータ) (2024-01-14T20:14:07Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - The worst of both worlds: A comparative analysis of errors in learning
from data in psychology and machine learning [17.336655978572583]
機械学習(ML)が誤診や複製の危機に直面しているという最近の懸念は、ML研究で公表された主張の一部が対面価値で評価できないことを示唆している。
教師付きMLにおける研究の関心事は、実験科学における複製危機と共通している。
論文 参考訳(メタデータ) (2022-03-12T18:26:24Z) - The Need for Interpretable Features: Motivation and Taxonomy [69.07189753428553]
我々は、「解釈可能な特徴」という用語は、機械学習の説明の有用性に影響を与える機能の全範囲を捉えるのに十分な具体的あるいは詳細ではないと主張している。
本稿では,(1)解釈可能な機能空間と呼ぶもの,あるいはドメインの専門家が現実の行動を取る上で有用な機能の現状に,より注意を払わなければならない,という3つの重要な教訓を論じる。
論文 参考訳(メタデータ) (2022-02-23T19:19:14Z) - Spatial machine-learning model diagnostics: a model-agnostic
distance-based approach [91.62936410696409]
本研究は,空間予測誤差プロファイル (SPEP) と空間変数重要度プロファイル (SVIP) を,新しいモデルに依存しない評価・解釈ツールとして提案する。
統計学的手法、線形モデル、ランダムフォレスト、ハイブリッドアルゴリズムのSPEPとSVIPは、顕著な差異と関連する類似性を示している。
この新しい診断ツールは空間データ科学のツールキットを充実させ、MLモデルの解釈、選択、設計を改善する可能性がある。
論文 参考訳(メタデータ) (2021-11-13T01:50:36Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Understanding Interpretability by generalized distillation in Supervised
Classification [3.5473853445215897]
最近の解釈戦略は、複雑な機械学習モデルの根底にある決定メカニズムの人間の理解に焦点を当てている。
本稿では,他のMLモデルと相対的に定義される解釈・蒸留式を提案する。
MNIST、Fashion-MNIST、Stanford40データセットに関する提案フレームワークの評価を行った。
論文 参考訳(メタデータ) (2020-12-05T17:42:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。