論文の概要: Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation
- arxiv url: http://arxiv.org/abs/2104.04148v2
- Date: Mon, 12 Apr 2021 03:06:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 11:35:57.164111
- Title: Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation
- Title(参考訳): 機械学習モデルにおける個人説明:貧困推定を事例として
- Authors: Alfredo Carrillo, Luis F. Cant\'u, Luis Tejerina and Alejandro Noriega
- Abstract要約: 機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
- 参考スコア(独自算出の注目度): 63.18666008322476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning methods are being increasingly applied in sensitive societal
contexts, where decisions impact human lives. Hence it has become necessary to
build capabilities for providing easily-interpretable explanations of models'
predictions. Recently in academic literature, a vast number of explanations
methods have been proposed. Unfortunately, to our knowledge, little has been
documented about the challenges machine learning practitioners most often face
when applying them in real-world scenarios. For example, a typical procedure
such as feature engineering can make some methodologies no longer applicable.
The present case study has two main objectives. First, to expose these
challenges and how they affect the use of relevant and novel explanations
methods. And second, to present a set of strategies that mitigate such
challenges, as faced when implementing explanation methods in a relevant
application domain -- poverty estimation and its use for prioritizing access to
social policies.
- Abstract(参考訳): 機械学習の手法は、決定が人間の生活に影響を与える繊細な社会状況にますます適用されている。
したがって、モデルの予測を簡単に解釈可能な説明を提供する能力を構築する必要がある。
近年の学術文献では、多くの説明方法が提案されている。
残念ながら、私たちの知る限りでは、機械学習の実践者が現実のシナリオに適用する際に直面する課題についてはほとんど文書化されていません。
例えば、機能工学のような典型的な手順は、いくつかの方法論をもはや適用できなくなる。
本研究の主な目的は2つある。
まず、これらの課題とそれらが関連する新しい説明方法の使用に与える影響を明らかにする。
第二に、関連するアプリケーションドメインで説明手法を実装する際に直面するような課題を緩和する一連の戦略を示す。
関連論文リスト
- Transparency challenges in policy evaluation with causal machine learning -- improving usability and accountability [0.0]
モデルがどのように見積を行うかを理解するには、グローバルに解釈可能な方法はない。
因果機械学習モデルが公正な方法で機能しているかどうかを理解するのは難しい。
本稿では,透明性の問題が公共政策評価アプリケーションにおける因果的機械学習の課題である理由を考察する。
論文 参考訳(メタデータ) (2023-10-20T02:48:29Z) - Textual Explanations and Critiques in Recommendation Systems [8.406549970145846]
論文は、このニーズに対処する2つの根本的な課題に焦点を当てています。
1つ目は、スケーラブルでデータ駆動的な説明生成である。
第2の課題は、説明を実行可能なものにすることだ。
論文 参考訳(メタデータ) (2022-05-15T11:59:23Z) - Knowledge Augmented Machine Learning with Applications in Autonomous
Driving: A Survey [37.84106999449108]
この研究は、データ駆動モデルと既存の知識を組み合わせた既存の技術と手法の概要を提供する。
同定されたアプローチは、知識の統合、抽出、整合性に応じて構成される。
特に、自律運転分野における提案手法の適用について述べる。
論文 参考訳(メタデータ) (2022-05-10T07:25:32Z) - Learning Physical Concepts in Cyber-Physical Systems: A Case Study [72.74318982275052]
本稿では,時系列データにおける物理概念の学習方法に関する研究の現状について概説する。
また,3タンクシステムの例を用いて,最先端技術から最も重要な手法を分析した。
論文 参考訳(メタデータ) (2021-11-28T14:24:52Z) - When and How to Fool Explainable Models (and Humans) with Adversarial
Examples [1.439518478021091]
説明可能な機械学習モデルに対する敵攻撃の可能性と限界について検討する。
まず、逆例の概念を拡張して、説明可能な機械学習シナリオに適合する。
次に、説明可能なモデルに対して、逆例を生成できるかどうかを総合的に検討する枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-05T11:20:55Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - A Survey on Causal Inference [64.45536158710014]
因果推論は統計学、コンピュータ科学、教育、公共政策、経済学など、多くの分野において重要な研究トピックである。
観測データに対する様々な因果効果推定法が誕生した。
論文 参考訳(メタデータ) (2020-02-05T21:35:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。