論文の概要: Evolutionary Computation and Explainable AI: A Roadmap to Transparent Intelligent Systems
- arxiv url: http://arxiv.org/abs/2406.07811v1
- Date: Wed, 12 Jun 2024 02:06:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 20:46:21.658124
- Title: Evolutionary Computation and Explainable AI: A Roadmap to Transparent Intelligent Systems
- Title(参考訳): 進化的計算と説明可能なAI: 透明なインテリジェントシステムへの道のり
- Authors: Ryan Zhou, Jaume Bacardit, Alexander Brownlee, Stefano Cagnoni, Martin Fyvie, Giovanni Iacca, John McCall, Niki van Stein, David Walker, Ting Hu,
- Abstract要約: 本稿では、説明可能な人工知能(XAI)の紹介と、機械学習(ML)モデルの説明に現在使われている様々な技術についてレビューする。
次に、ECがXAIでどのように使用できるかに注目し、ECテクニックを取り入れたXAIアプローチについてレビューする。
- 参考スコア(独自算出の注目度): 37.02462866600066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI methods are finding an increasing number of applications, but their often black-box nature has raised concerns about accountability and trust. The field of explainable artificial intelligence (XAI) has emerged in response to the need for human understanding of AI models. Evolutionary computation (EC), as a family of powerful optimization and learning tools, has significant potential to contribute to XAI. In this paper, we provide an introduction to XAI and review various techniques in current use for explaining machine learning (ML) models. We then focus on how EC can be used in XAI, and review some XAI approaches which incorporate EC techniques. Additionally, we discuss the application of XAI principles within EC itself, examining how these principles can shed some light on the behavior and outcomes of EC algorithms in general, on the (automatic) configuration of these algorithms, and on the underlying problem landscapes that these algorithms optimize. Finally, we discuss some open challenges in XAI and opportunities for future research in this field using EC. Our aim is to demonstrate that EC is well-suited for addressing current problems in explainability and to encourage further exploration of these methods to contribute to the development of more transparent and trustworthy ML models and EC algorithms.
- Abstract(参考訳): AIメソッドはアプリケーションの数が増えていますが、そのブラックボックスの性質はしばしば、説明責任と信頼に関する懸念を引き起こしています。
説明可能な人工知能(XAI)の分野は、AIモデルの人間的理解の必要性に応えて現れた。
進化的計算(EC)は、強力な最適化と学習ツールのファミリーであり、XAIに貢献する大きな可能性を秘めている。
本稿では,XAIについて紹介し,機械学習(ML)モデルの説明に現在使われている様々な技術について概説する。
次に、ECがXAIでどのように使用できるかに注目し、ECテクニックを取り入れたXAIアプローチについてレビューする。
さらに、EC自体におけるXAI原則の適用について論じ、これらの原則がECアルゴリズムの動作と結果、これらのアルゴリズムの(自動)構成、およびこれらのアルゴリズムが最適化する根底にある問題状況にどのように光を当てるかを考察する。
最後に、XAIにおけるオープンな課題と、ECを用いたこの分野における今後の研究の機会について論じる。
我々の目的は、ECが現在の説明可能性の問題に対処するのに適していることを実証し、より透明で信頼性の高いMLモデルやECアルゴリズムの開発に寄与するため、これらの手法のさらなる探索を奨励することである。
関連論文リスト
- Applications of Explainable artificial intelligence in Earth system science [12.454478986296152]
このレビューは、説明可能なAI(XAI)の基礎的な理解を提供することを目的としている。
XAIはモデルをより透明にする強力なツールセットを提供する。
我々は、地球系科学(ESS)において、XAIが直面する4つの重要な課題を識別する。
AIモデルは未知を探索し、XAIは説明を提供することでギャップを埋める。
論文 参考訳(メタデータ) (2024-06-12T15:05:29Z) - Towards a general framework for improving the performance of classifiers using XAI methods [0.0]
本稿では,XAI手法を用いた事前学習型ディープラーニング(DL)分類器の性能向上のためのフレームワークを提案する。
オートエンコーダベースおよびエンコーダデコーダベースと呼び、それらの重要な側面について議論する。
論文 参考訳(メタデータ) (2024-03-15T15:04:20Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Evolutionary approaches to explainable machine learning [6.274453963224799]
機械学習モデルは、重要なセクターでますます使われているが、そのブラックボックスの性質は、説明責任と信頼に関する懸念を引き起こしている。
説明可能な人工知能(XAI)や説明可能な機械学習(XML)の分野は、これらのモデルの人間的理解の必要性に応えて現れた。
進化的コンピューティングは、強力な最適化と学習ツールのファミリーとして、XAI/XMLに貢献する大きな可能性を秘めています。
論文 参考訳(メタデータ) (2023-06-23T16:47:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Explainable Artificial Intelligence (XAI): An Engineering Perspective [0.0]
XAIは、いわゆるブラックボックスAIアルゴリズムをホワイトボックスアルゴリズムに変換するテクニックと方法のセットです。
XAIのステークホルダを議論し、エンジニアリングの観点からXAIの数学的輪郭を説明します。
この研究は、XAIの分野における研究の新しい道を特定するための探索的研究です。
論文 参考訳(メタデータ) (2021-01-10T19:49:12Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。