論文の概要: Towards Benchmarking Explainable Artificial Intelligence Methods
- arxiv url: http://arxiv.org/abs/2208.12120v1
- Date: Thu, 25 Aug 2022 14:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:05:34.455657
- Title: Towards Benchmarking Explainable Artificial Intelligence Methods
- Title(参考訳): 説明可能な人工知能手法のベンチマークに向けて
- Authors: Lars Holmberg
- Abstract要約: 我々は、ニューラルネットワークによって推進される決定を説明する方法から、科学理論の哲学を、期待できるもの、期待できないものを明らかにすることを目的として分析レンズとして利用する。
ケーススタディにより、動物とヘッドギアの2つの常在領域における説明可能性法の性能の選択について検討した。
これらの手法の有用性は、人間のドメイン知識と、理解し、一般化し、理性に頼っている、と私たちはうなずく。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The currently dominating artificial intelligence and machine learning
technology, neural networks, builds on inductive statistical learning. Neural
networks of today are information processing systems void of understanding and
reasoning capabilities, consequently, they cannot explain promoted decisions in
a humanly valid form. In this work, we revisit and use fundamental philosophy
of science theories as an analytical lens with the goal of revealing, what can
be expected, and more importantly, not expected, from methods that aim to
explain decisions promoted by a neural network. By conducting a case study we
investigate a selection of explainability method's performance over two mundane
domains, animals and headgear. Through our study, we lay bare that the
usefulness of these methods relies on human domain knowledge and our ability to
understand, generalise and reason. The explainability methods can be useful
when the goal is to gain further insights into a trained neural network's
strengths and weaknesses. If our aim instead is to use these explainability
methods to promote actionable decisions or build trust in ML-models they need
to be less ambiguous than they are today. In this work, we conclude from our
study, that benchmarking explainability methods, is a central quest towards
trustworthy artificial intelligence and machine learning.
- Abstract(参考訳): 現在、人工知能と機械学習技術であるニューラルネットワークは、帰納的統計学習に基づいている。
今日のニューラルネットワークは、理解と推論能力のない情報処理システムであるため、人間に有効な形式での事前決定を説明できない。
本研究では,ニューラルネットワークによって促進される決定を説明する手法から,科学理論の基本哲学を再考し,分析レンズとして利用し,期待できるもの,期待できないものを明らかにすることを目的としている。
ケーススタディにより,動物と頭部の2つの常在領域における説明可能性法の性能の選択を検討した。
本研究を通じて,これらの手法の有用性は,人間のドメイン知識と理解,一般化,理性に依存している,と結論づけた。
トレーニングされたニューラルネットワークの強みと弱みに関するさらなる洞察を得ることが目的である場合、説明可能性の方法が有用である。
私たちの目的が、アクション可能な決定を促進するためにこれらの説明可能性メソッドを使用することや、MLモデルへの信頼を構築することならば、現在よりも曖昧さを欠く必要があります。
本稿では,本研究の結論として,説明可能性のベンチマーク手法は,信頼できる人工知能と機械学習への中心的探求である,と結論づける。
関連論文リスト
- Trustworthy Conceptual Explanations for Neural Networks in Robot Decision-Making [9.002659157558645]
本稿では,人間に解釈可能な高レベル概念に基づく,信頼性の高い説明可能なロボット工学手法を提案する。
提案手法は、ニューラルネットワークのアクティベーションと人間の解釈可能なビジュアライゼーションをマッチングすることにより、関連する不確実性スコアを説明できる。
論文 参考訳(メタデータ) (2024-09-16T21:11:12Z) - From Neurons to Neutrons: A Case Study in Interpretability [5.242869847419834]
高次元ニューラルネットワークはトレーニングデータの低次元表現を学習することができると我々は主張する。
このことは、解釈可能性に対するそのようなアプローチが、問題を解決するために訓練されたモデルから問題に対する新しい理解を導き出すのに有用であることを示している。
論文 参考訳(メタデータ) (2024-05-27T17:59:35Z) - Improving deep learning with prior knowledge and cognitive models: A
survey on enhancing explainability, adversarial robustness and zero-shot
learning [0.0]
我々は、敵の防御を実現するために、現在および新興の知識インフォームドおよび脳にインスパイアされた認知システムについてレビューする。
脳に触発された認知法は、人間の心を模倣する計算モデルを用いて、人工知能や自律ロボットの知的な行動を強化する。
論文 参考訳(メタデータ) (2024-03-11T18:11:00Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - What are the mechanisms underlying metacognitive learning? [5.787117733071415]
我々は、この能力は試行錯誤(メタ認知強化学習)から学ぶと仮定する。
ここでは、基礎となる学習メカニズムのモデルを体系化し、より洗練された追加メカニズムで強化する。
以上の結果から,認知戦略の空間における勾配上昇は,観察された定性的現象のほとんどを説明することができることが示唆された。
論文 参考訳(メタデータ) (2023-02-09T18:49:10Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。