論文の概要: Principles and Practice of Explainable Machine Learning
- arxiv url: http://arxiv.org/abs/2009.11698v1
- Date: Fri, 18 Sep 2020 14:50:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 02:04:25.396225
- Title: Principles and Practice of Explainable Machine Learning
- Title(参考訳): 説明可能な機械学習の原則と実践
- Authors: Vaishak Belle and Ioannis Papantonis
- Abstract要約: 本稿では、特に機械学習(ML)とパターン認識モデルに関するデータ駆動手法に焦点を当てる。
メソッドの頻度と複雑さが増すにつれて、少なくともビジネスの利害関係者はモデルの欠点に懸念を抱いている。
我々は、業界実践者が説明可能な機械学習の分野をよりよく理解するための調査を実施した。
- 参考スコア(独自算出の注目度): 12.47276164048813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) provides many opportunities to improve private
and public life. Discovering patterns and structures in large troves of data in
an automated manner is a core component of data science, and currently drives
applications in diverse areas such as computational biology, law and finance.
However, such a highly positive impact is coupled with significant challenges:
how do we understand the decisions suggested by these systems in order that we
can trust them? In this report, we focus specifically on data-driven methods --
machine learning (ML) and pattern recognition models in particular -- so as to
survey and distill the results and observations from the literature. The
purpose of this report can be especially appreciated by noting that ML models
are increasingly deployed in a wide range of businesses. However, with the
increasing prevalence and complexity of methods, business stakeholders in the
very least have a growing number of concerns about the drawbacks of models,
data-specific biases, and so on. Analogously, data science practitioners are
often not aware about approaches emerging from the academic literature, or may
struggle to appreciate the differences between different methods, so end up
using industry standards such as SHAP. Here, we have undertaken a survey to
help industry practitioners (but also data scientists more broadly) understand
the field of explainable machine learning better and apply the right tools. Our
latter sections build a narrative around a putative data scientist, and discuss
how she might go about explaining her models by asking the right questions.
- Abstract(参考訳): 人工知能(AI)は、民間と公共の生活を改善する多くの機会を提供する。
大量のデータを自動で分析するパターンと構造は、データサイエンスのコアコンポーネントであり、現在、計算生物学、法学、財務学などの様々な分野のアプリケーションを駆動している。
しかしながら、このような非常にポジティブな影響は、重要な課題と結び付いている。 システムを信頼するために、これらのシステムによって提案されている決定をどのように理解するか?
本報告では、特に機械学習(ml)とパターン認識モデルによるデータ駆動手法に注目し、文献からの結果と観察を調査・分別する。
このレポートの目的は、MLモデルがより広範囲のビジネスに展開されていることに注目して、特に評価することができる。
しかし、メソッドの普及と複雑さの増加に伴い、少なくともビジネス利害関係者は、モデルの欠点やデータ固有のバイアスなどに関する懸念が高まっている。
同様に、データサイエンスの実践者は、しばしば学術文献から生まれるアプローチを意識していないか、異なる方法の違いを理解するのに苦労しているかもしれないため、shapのような業界標準を使うことになる。
ここでは、業界実践者(データサイエンティストも含む)が説明可能な機械学習の分野をより深く理解し、適切なツールを適用するための調査を実施しました。
後者のセクションでは、データサイエンティストの仮定に関する物語を作り、正しい質問をしてモデルを説明する方法について論じています。
関連論文リスト
- The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Interpretable Machine Learning for Discovery: Statistical Challenges \&
Opportunities [1.2891210250935146]
我々は、解釈可能な機械学習の分野について議論し、レビューする。
解釈可能な機械学習を用いて行うことができる発見の種類について概説する。
我々は、これらの発見をデータ駆動方式でどのように検証するかという大きな課題に焦点をあてる。
論文 参考訳(メタデータ) (2023-08-02T23:57:31Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - A Vision for Semantically Enriched Data Science [19.604667287258724]
ドメイン知識の活用やデータセマンティクスといった重要な分野は、ほとんど自動化されていない分野です。
データサイエンスの自動化のための新しいツールと組み合わせて、データに対する“セマンティック”な理解と推論を活用することが、一貫性と説明可能なデータ拡張と変換にどのように役立つか、私たちは考えています。
論文 参考訳(メタデータ) (2023-03-02T16:03:12Z) - Importance measures derived from random forests: characterisation and
extension [0.2741266294612776]
この論文は、機械学習アルゴリズムの特定のファミリーによって構築されたモデルの解釈可能性を改善することを目的としている。
これらのモデルを解釈するためにいくつかのメカニズムが提案されており、この理論に沿ってそれらの理解を改善することを目指している。
論文 参考訳(メタデータ) (2021-06-17T13:23:57Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。