論文の概要: From Correlation to Causation: Formalizing Interpretable Machine
Learning as a Statistical Process
- arxiv url: http://arxiv.org/abs/2207.04969v1
- Date: Mon, 11 Jul 2022 15:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 13:26:48.008421
- Title: From Correlation to Causation: Formalizing Interpretable Machine
Learning as a Statistical Process
- Title(参考訳): 相関から因果関係へ:統計的プロセスとしての解釈可能な機械学習の形式化
- Authors: Lukas Klein, Mennatallah El-Assady and Paul F. J\"ager
- Abstract要約: 我々は、XAIの最大のサブグループ、解釈可能な機械学習(IML)と古典統計学の概念的類似性について詳述する。
この統計的視点を採用することで、機械学習モデルとAIM手法を洗練された統計ツールとして解釈することができる。
- 参考スコア(独自算出の注目度): 5.685330654239804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) is a necessity in safety-critical systems such as in
clinical diagnostics due to a high risk for fatal decisions. Currently,
however, XAI resembles a loose collection of methods rather than a well-defined
process. In this work, we elaborate on conceptual similarities between the
largest subgroup of XAI, interpretable machine learning (IML), and classical
statistics. Based on these similarities, we present a formalization of IML
along the lines of a statistical process. Adopting this statistical view allows
us to interpret machine learning models and IML methods as sophisticated
statistical tools. Based on this interpretation, we infer three key questions,
which we identify as crucial for the success and adoption of IML in
safety-critical settings. By formulating these questions, we further aim to
spark a discussion about what distinguishes IML from classical statistics and
what our perspective implies for the future of the field.
- Abstract(参考訳): 説明可能なAI(XAI)は、致命的な決定のリスクが高い臨床診断など、安全に重要なシステムにおいて必要である。
しかし現時点では、XAIは明確に定義されたプロセスではなく、メソッドの緩いコレクションに似ている。
本稿では,XAIの最大部分群,解釈可能な機械学習(IML),古典統計学の概念的類似性について詳述する。
これらの類似性に基づき、統計的プロセスの線に沿ってIMLの形式化を示す。
この統計的視点を用いることで、機械学習モデルとimlメソッドを高度な統計ツールとして解釈することができる。
この解釈に基づいて,安全クリティカルな環境でのimlの成功と採用に不可欠な3つの重要な疑問を推測する。
これらの疑問を定式化することによって、IMLと古典統計学を区別する点と、この分野の将来に対する我々の視点について、さらに議論を巻き起こそうとしている。
関連論文リスト
- Measuring Variable Importance in Individual Treatment Effect Estimation with High Dimensional Data [35.104681814241104]
因果機械学習(ML)は、個々の治療効果を推定するための強力なツールを提供する。
ML手法は、医療応用にとって重要な解釈可能性の重要な課題に直面している。
統計的に厳密な変数重要度評価のための条件置換重要度(CPI)法に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-23T11:44:07Z) - Unified Explanations in Machine Learning Models: A Perturbation Approach [0.0]
XAIとモデリング技術の不整合は、これらの説明可能性アプローチの有効性に疑念を投げかけるという望ましくない効果をもたらす可能性がある。
我々はXAI, SHapley Additive exPlanations (Shap) において, 一般的なモデルに依存しない手法に対する系統的摂動解析を提案する。
我々は、一般的な機械学習とディープラーニングの手法のスイートと、静的ケースホールドで生成された説明の正確さを定量化するためのメトリクスの中で、動的推論の設定において、相対的な特徴重要度を生成するアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-05-30T16:04:35Z) - Interpretable Machine Learning for Survival Analysis [3.618561939712435]
解釈可能な機械学習(IML)や説明可能な人工知能(XAI)はこの10年でますます重要になっている。
簡単に利用できるIML手法の欠如は、公衆衛生における医療実践者や政策立案者が機械学習の潜在能力を最大限に活用することを妨げる可能性がある。
一般のIML分類学の文脈における生存分析のためのIML法に関する限られた既存の研究成果について概説する。
論文 参考訳(メタデータ) (2024-03-15T12:38:00Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Topological Interpretability for Deep-Learning [0.30806551485143496]
ディープラーニング(DL)モデルは、予測の確実性を定量化できない。
本研究は,臨床および非臨床のテキストに基づいて訓練された2つのDL分類モデルにおいて,特徴を推測する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:38:13Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Benchmarking Machine Learning Robustness in Covid-19 Genome Sequence
Classification [109.81283748940696]
我々は、IlluminaやPacBioといった一般的なシークエンシングプラットフォームのエラープロファイルを模倣するために、SARS-CoV-2ゲノム配列を摂動する方法をいくつか紹介する。
シミュレーションに基づくいくつかのアプローチは、入力シーケンスに対する特定の敵攻撃に対する特定の埋め込み手法に対して、他の手法よりも堅牢(かつ正確)であることを示す。
論文 参考訳(メタデータ) (2022-07-18T19:16:56Z) - The Benchmark Lottery [114.43978017484893]
ベンチマーク宝くじ」は、機械学習ベンチマークプロセスの全体的な脆弱さを記述している。
アルゴリズムの相対的性能は、異なるベンチマークタスクを選択するだけで大幅に変化する可能性がある。
論文 参考訳(メタデータ) (2021-07-14T21:08:30Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Why model why? Assessing the strengths and limitations of LIME [0.0]
本稿では,LIME(Local Interpretable Model-Agnostic Explanations) xAIフレームワークの有効性について検討する。
LIMEは、文献で見られる最も人気のあるモデルに依存しないフレームワークの1つである。
従来の性能評価手法を補うためにLIMEをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2020-11-30T21:08:07Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。