論文の概要: Evolutionary approaches to explainable machine learning
- arxiv url: http://arxiv.org/abs/2306.14786v1
- Date: Fri, 23 Jun 2023 16:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 12:57:33.606377
- Title: Evolutionary approaches to explainable machine learning
- Title(参考訳): 説明可能な機械学習への進化的アプローチ
- Authors: Ryan Zhou, Ting Hu
- Abstract要約: 機械学習モデルは、重要なセクターでますます使われているが、そのブラックボックスの性質は、説明責任と信頼に関する懸念を引き起こしている。
説明可能な人工知能(XAI)や説明可能な機械学習(XML)の分野は、これらのモデルの人間的理解の必要性に応えて現れた。
進化的コンピューティングは、強力な最適化と学習ツールのファミリーとして、XAI/XMLに貢献する大きな可能性を秘めています。
- 参考スコア(独自算出の注目度): 6.274453963224799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are increasingly being used in critical sectors, but
their black-box nature has raised concerns about accountability and trust. The
field of explainable artificial intelligence (XAI) or explainable machine
learning (XML) has emerged in response to the need for human understanding of
these models. Evolutionary computing, as a family of powerful optimization and
learning tools, has significant potential to contribute to XAI/XML. In this
chapter, we provide a brief introduction to XAI/XML and review various
techniques in current use for explaining machine learning models. We then focus
on how evolutionary computing can be used in XAI/XML, and review some
approaches which incorporate EC techniques. We also discuss some open
challenges in XAI/XML and opportunities for future research in this field using
EC. Our aim is to demonstrate that evolutionary computing is well-suited for
addressing current problems in explainability, and to encourage further
exploration of these methods to contribute to the development of more
transparent, trustworthy and accountable machine learning models.
- Abstract(参考訳): 機械学習モデルは、重要なセクターでますます使われているが、そのブラックボックスの性質は、説明責任と信頼に関する懸念を引き起こしている。
説明可能な人工知能(XAI)や説明可能な機械学習(XML)の分野は、これらのモデルの人間的理解の必要性に応えて現れた。
進化的コンピューティングは、強力な最適化と学習ツールのファミリーとして、XAI/XMLに貢献する大きな可能性を秘めています。
この章では、XAI/XMLの簡単な紹介と、機械学習モデルの説明に現在使われている様々なテクニックについてレビューする。
次に、XAI/XMLにおける進化的コンピューティングの活用方法に注目し、ECテクニックを取り入れたいくつかのアプローチについてレビューする。
また、XAI/XMLにおけるオープンな課題と、ECを用いたこの分野における今後の研究の機会についても論じる。
我々の目的は、進化的コンピューティングが現在の説明可能性の問題に対処するのに適していることを示し、これらの手法のさらなる探索を奨励し、より透明で信頼性があり、説明可能な機械学習モデルの開発に寄与することである。
関連論文リスト
- Evolutionary Computation and Explainable AI: A Roadmap to Understandable Intelligent Systems [37.02462866600066]
進化的計算(EC)は、説明可能なAI(XAI)に寄与する大きな可能性を提供する
本稿では、XAIの紹介を行い、機械学習モデルを説明するための現在の技術についてレビューする。
次に、ECがXAIでどのように活用できるかを検討し、ECテクニックを取り入れた既存のXAIアプローチを調べます。
論文 参考訳(メタデータ) (2024-06-12T02:06:24Z) - Explainable Artificial Intelligence Techniques for Accurate Fault Detection and Diagnosis: A Review [0.0]
この文脈でeXplainable AI(XAI)ツールとテクニックをレビューする。
私たちは、AI決定を透明にする彼らの役割、特に人間が関与する重要なシナリオに重点を置いています。
モデル性能と説明可能性のバランスをとることを目的とした,現在の限界と今後の研究について論じる。
論文 参考訳(メタデータ) (2024-04-17T17:49:38Z) - Toward enriched Cognitive Learning with XAI [44.99833362998488]
本稿では,人工知能(AI)ツールによる認知学習のためのインテリジェントシステム(CL-XAI)を提案する。
CL-XAIの使用は、学習者が問題解決スキルを高めるために問題に取り組むゲームインスパイアされた仮想ユースケースで説明される。
論文 参考訳(メタデータ) (2023-12-19T16:13:47Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Designing Explainable Predictive Machine Learning Artifacts: Methodology
and Practical Demonstration [0.0]
さまざまな業界の企業による意思決定者は、現代の機械学習アルゴリズムに基づくアプリケーションを採用することに、いまだに消極的だ。
我々はこの問題を、高度な機械学習アルゴリズムを「ブラックボックス」として広く支持されている見解に当てはめている。
本研究では,設計科学研究から方法論的知識を統一する手法を開発し,最先端の人工知能を用いた予測分析手法を提案する。
論文 参考訳(メタデータ) (2023-06-20T15:11:26Z) - A Time Series Approach to Explainability for Neural Nets with
Applications to Risk-Management and Fraud Detection [0.0]
技術に対する信頼は、予測の背後にある根拠を理解することによって実現される。
横断的なデータの場合、古典的なXAIアプローチはモデルの内部動作に関する貴重な洞察をもたらす可能性がある。
本稿では、データの自然時間順序を保存・活用する深層学習のための新しいXAI手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T12:04:01Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。