論文の概要: TrustyAI Explainability Toolkit
- arxiv url: http://arxiv.org/abs/2104.12717v1
- Date: Mon, 26 Apr 2021 17:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:58:36.410163
- Title: TrustyAI Explainability Toolkit
- Title(参考訳): TrustyAI Explainability Toolkit
- Authors: Rob Geada, Tommaso Teofili, Rui Vieira, Rebecca Whitworth, Daniele
Zonca
- Abstract要約: trustyaiが意思決定サービスと予測モデルに対する信頼をどのように支援できるか検討する。
我々は, LIME, SHAP, および対策技術について検討する。
また、評価対象の背景データ選択をサポートするSHAPの拡張バージョンについても検討します。
- 参考スコア(独自算出の注目度): 1.0499611180329804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) is becoming increasingly more popular and can be
found in workplaces and homes around the world. However, how do we ensure trust
in these systems? Regulation changes such as the GDPR mean that users have a
right to understand how their data has been processed as well as saved.
Therefore if, for example, you are denied a loan you have the right to ask why.
This can be hard if the method for working this out uses "black box" machine
learning techniques such as neural networks. TrustyAI is a new initiative which
looks into explainable artificial intelligence (XAI) solutions to address
trustworthiness in ML as well as decision services landscapes.
In this paper we will look at how TrustyAI can support trust in decision
services and predictive models. We investigate techniques such as LIME, SHAP
and counterfactuals, benchmarking both LIME and counterfactual techniques
against existing implementations. We also look into an extended version of
SHAP, which supports background data selection to be evaluated based on
quantitative data and allows for error bounds.
- Abstract(参考訳): 人工知能(AI)はますます普及し、世界中の職場や家庭でも見られるようになっている。
しかし、これらのシステムに対する信頼をどうやって確保するか?
GDPRのような規制変更は、ユーザがデータの処理方法と保存方法を理解する権利を持つことを意味する。
ですから,例えば,ローンを拒否された場合には,理由を問う権利があります。
この方法がニューラルネットワークのような"ブラックボックス"機械学習技術を使用する場合、これは難しい場合があります。
TrustyAIは、MLの信頼性と意思決定サービスの展望に対処するために、説明可能な人工知能(XAI)ソリューションを検討する新しいイニシアチブである。
本稿では,TrustyAIが意思決定サービスや予測モデルへの信頼をどのようにサポートするかを検討する。
LIME や SHAP など,既存の実装に対して LIME と 対実技術の両方をベンチマークする手法について検討する。
定量的データに基づいて評価されるバックグラウンドデータ選択をサポートし、エラー境界を許容するshapの拡張バージョンも検討する。
関連論文リスト
- Explainable AI needs formal notions of explanation correctness [2.1309989863595677]
医学のような重要な分野における機械学習はリスクをもたらし、規制を必要とする。
1つの要件は、リスクの高いアプリケーションにおけるMLシステムの決定は、人間に理解可能なものであるべきです。
現在の形式では、XAIはMLの品質管理に不適であり、それ自体は精査が必要である。
論文 参考訳(メタデータ) (2024-09-22T20:47:04Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Trustworthy AI: Deciding What to Decide [41.10597843436572]
我々は,AIの重要なコンポーネントを含む,信頼に値するAI(TAI)の新しいフレームワークを提案する。
我々は,この枠組みを用いて,定量的および定性的な研究手法によるTAI実験を実施することを目指している。
技術分野における信用デフォルトスワップ(CDS)の戦略的投資決定を適用するための最適予測モデルを定式化する。
論文 参考訳(メタデータ) (2023-11-21T13:43:58Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Survey of Trustworthy AI: A Meta Decision of AI [0.41292255339309647]
不透明なシステムを信頼するには、信頼に値するAI(TAI)のレベルを決定する必要がある。
説明可能性/透明性、公平性/多様性、一般化可能性、プライバシ、データガバナンス、安全性/ロバスト性、説明責任、信頼性、持続可能性。
論文 参考訳(メタデータ) (2023-06-01T06:25:01Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Explainable, Interpretable & Trustworthy AI for Intelligent Digital Twin: Case Study on Remaining Useful Life [0.5115559623386964]
エネルギーとエンジニアリングシステムにおけるAIの信頼性に自信を持つことは重要だ。
診断の正確な予測には、説明可能なAI(XAI)と解釈可能な機械学習(IML)が不可欠である。
論文 参考訳(メタデータ) (2023-01-17T03:17:07Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - Explainable AI via Learning to Optimize [2.8010955192967852]
機械学習(ML)では非解読可能なブラックボックスが一般的だが、アプリケーションは説明可能な人工知能(XAI)を必要としている。
この作業は、事前の知識を符号化し、信頼できない推論をフラグ付けしなければならない状況において、XAIのための具体的なツールを提供する。
論文 参考訳(メタデータ) (2022-04-29T15:57:03Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Statistical stability indices for LIME: obtaining reliable explanations
for Machine Learning models [60.67142194009297]
機械学習技術の利用が絶え間なく増加していることは、このような傾向の最も明白な例である。
アルゴリズムが決定を下した根拠を理解することは極めて困難である。
実践者がこの問題に気付くこと、そしてそれを見つけるためのツールを持つことが重要である。
論文 参考訳(メタデータ) (2020-01-31T10:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。