論文の概要: Explainability in Practice: Estimating Electrification Rates from Mobile
Phone Data in Senegal
- arxiv url: http://arxiv.org/abs/2211.06277v1
- Date: Fri, 11 Nov 2022 15:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 17:17:52.646641
- Title: Explainability in Practice: Estimating Electrification Rates from Mobile
Phone Data in Senegal
- Title(参考訳): 実践における説明可能性:セネガルの携帯電話データから電化率を推定する
- Authors: Laura State, Hadrien Salat, Stefania Rubrichi and Zbigniew Smoreda
- Abstract要約: 我々は,セネガルの携帯電話データに基づいて,電化率を推定するために訓練されたMLモデルであるXAIのユースケースを提案する。
モデルに依存しない局所的説明手法を2つ適用し,モデルの検証が可能である一方で,人口密度に偏りがあることを見出した。
- 参考スコア(独自算出の注目度): 0.13764085113103217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence (XAI) provides explanations for not
interpretable machine learning (ML) models. While many technical approaches
exist, there is a lack of validation of these techniques on real-world
datasets. In this work, we present a use-case of XAI: an ML model which is
trained to estimate electrification rates based on mobile phone data in
Senegal. The data originate from the Data for Development challenge by Orange
in 2014/15. We apply two model-agnostic, local explanation techniques and find
that while the model can be verified, it is biased with respect to the
population density. We conclude our paper by pointing to the two main
challenges we encountered during our work: data processing and model design
that might be restricted by currently available XAI methods, and the importance
of domain knowledge to interpret explanations.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、解釈可能な機械学習(ML)モデルについての説明を提供する。
多くの技術的アプローチが存在するが、現実世界のデータセットにおけるこれらのテクニックの検証の欠如がある。
本研究では,セネガルの携帯電話データに基づく電化率の推定を訓練したMLモデルであるXAIのユースケースを提案する。
データは2014/15年のorangeによるdata for development challengeに由来する。
2つのモデル非依存な局所的な説明手法を適用し、モデルが検証できるが、人口密度に関して偏りがあることを見出す。
我々は、現在利用可能なXAIメソッドによって制限される可能性のあるデータ処理とモデル設計の2つの主な課題と、説明を解釈するためのドメイン知識の重要性を指摘して、論文を締めくくります。
関連論文リスト
- Robustness of Explainable Artificial Intelligence in Industrial Process Modelling [43.388607981317016]
我々は,地中真実シミュレーションと感度解析に基づいて,現在のXAI手法を評価する。
モデル化された産業プロセスの真の感度を正確に予測する能力において,XAI法とXAI法の違いを示す。
論文 参考訳(メタデータ) (2024-07-12T09:46:26Z) - CHILLI: A data context-aware perturbation method for XAI [3.587367153279351]
機械学習(ML)モデルの信頼性は評価が難しいが、リスクの高いアプリケーションや倫理的に敏感なアプリケーションでは重要である。
本稿では,文脈に意識された摂動を生成することで,データコンテキストをXAIに組み込む新しいフレームワークCHILLIを提案する。
これは説明の正確さと正確さを両立させることが示されている。
論文 参考訳(メタデータ) (2024-07-10T10:18:07Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Towards Explainable Artificial Intelligence (XAI): A Data Mining
Perspective [35.620874971064765]
この研究は、データ収集、処理、分析が説明可能なAI(XAI)にどのように貢献するかを「データ中心」の視点で検証する。
我々は,既存の研究を,深層モデルの解釈,トレーニングデータの影響,ドメイン知識の洞察の3つのカテゴリに分類する。
具体的には、XAIの方法論を、モダリティをまたいだデータのトレーニングおよびテストに関するデータマイニング操作に蒸留する。
論文 参考訳(メタデータ) (2024-01-09T06:27:09Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - A novel approach to generate datasets with XAI ground truth to evaluate
image models [0.0]
基底真理(GT)を用いたデータセット生成手法を提案する。
提案手法が正しいことを確認するため,GTと実モデル説明との比較実験を行い,優れた結果を得た。
論文 参考訳(メタデータ) (2023-02-11T08:20:17Z) - Algebraic Learning: Towards Interpretable Information Modeling [0.0]
この論文は、一般的な情報モデリングにおける解釈可能性の問題に対処し、問題を2つの範囲から緩和する試みである。
まず、問題指向の視点を用いて、興味深い数学的性質が自然に現れるモデリング実践に知識を取り入れる。
第二に、訓練されたモデルを考えると、基礎となるシステムに関するさらなる洞察を抽出するために様々な方法を適用することができる。
論文 参考訳(メタデータ) (2022-03-13T15:53:39Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。