論文の概要: A Concept and Argumentation based Interpretable Model in High Risk
Domains
- arxiv url: http://arxiv.org/abs/2208.08149v1
- Date: Wed, 17 Aug 2022 08:29:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:45:05.139779
- Title: A Concept and Argumentation based Interpretable Model in High Risk
Domains
- Title(参考訳): 高リスク領域における概念と議論に基づく解釈モデル
- Authors: Haixiao Chi, Dawei Wang, Gaojie Cui, Feng Mao, Beishui Liao
- Abstract要約: 解釈可能性(interpretability)は、医療、銀行、セキュリティといったリスクの高い分野において、人工知能にとって重要なトピックとなっている。
人間の理解可能な概念を得るための新しい概念マイニング手法を含む概念と議論に基づくモデル(CAM)を提案する。
CAMは人間レベルの知識に基づく意思決定を提供し、推論プロセスは本質的に解釈可能である。
- 参考スコア(独自算出の注目度): 9.209499864585688
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Interpretability has become an essential topic for artificial intelligence in
some high-risk domains such as healthcare, bank and security. For commonly-used
tabular data, traditional methods trained end-to-end machine learning models
with numerical and categorical data only, and did not leverage human
understandable knowledge such as data descriptions. Yet mining human-level
knowledge from tabular data and using it for prediction remain a challenge.
Therefore, we propose a concept and argumentation based model (CAM) that
includes the following two components: a novel concept mining method to obtain
human understandable concepts and their relations from both descriptions of
features and the underlying data, and a quantitative argumentation-based method
to do knowledge representation and reasoning. As a result of it, CAM provides
decisions that are based on human-level knowledge and the reasoning process is
intrinsically interpretable. Finally, to visualize the purposed interpretable
model, we provide a dialogical explanation that contain dominated reasoning
path within CAM. Experimental results on both open source benchmark dataset and
real-word business dataset show that (1) CAM is transparent and interpretable,
and the knowledge inside the CAM is coherent with human understanding; (2) Our
interpretable approach can reach competitive results comparing with other
state-of-art models.
- Abstract(参考訳): 解釈可能性(interpretability)は、医療、銀行、セキュリティといったリスクの高い分野において、人工知能にとって重要なトピックとなっている。
一般的に使われている表型データに対して、従来の手法は数値データと分類データのみを用いてエンドツーエンドの機械学習モデルを訓練し、データ記述のような人間の理解可能な知識を活用できなかった。
しかし、表のデータから人間レベルの知識をマイニングし、予測に使用することは依然として課題である。
そこで我々は,人間の理解可能な概念とそれらの関係を特徴と基礎データの両方から得る新しい概念マイニング法と,知識表現と推論を行う定量的議論に基づく手法の2つの要素を含む概念と議論に基づくモデル(CAM)を提案する。
その結果、CAMは人間レベルの知識に基づいて決定を下し、推論プロセスは本質的に解釈可能である。
最後に、目的とする解釈可能なモデルを可視化するために、CAM内で支配的な推論経路を含むダイアログ的説明を提供する。
オープンソースのベンチマークデータセットと実単語ビジネスデータセットの両方における実験結果から,(1)camは透過的かつ解釈可能であり,(2)cam内の知識は人間の理解と一貫性があることが明らかとなった。
関連論文リスト
- Concept Induction using LLMs: a user experiment for assessment [1.1982127665424676]
本研究では,人間に対する説明として意味のある高レベルな概念を生成するために,LLM(Large Language Model)の可能性を探る。
我々は、LLMによって生成された概念を、人間によって生成された概念とECII概念誘導システムという、他の2つの方法と比較する。
人為的な説明は依然として優れているが, GPT-4 から派生した概念は, ECII が生成した概念よりも人間にとって理解しやすいことが示唆された。
論文 参考訳(メタデータ) (2024-04-18T03:22:02Z) - Learning Interpretable Concepts: Unifying Causal Representation Learning
and Foundation Models [51.43538150982291]
人間の解釈可能な概念をデータから学習する方法を研究する。
両分野からアイデアをまとめ、多様なデータから概念を確実に回収できることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:23:59Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Concept-Based Explanations for Tabular Data [0.0]
ディープニューラルネットワーク(DNN)のための概念に基づく説明可能性を提案する。
本研究では,人間レベルの直観に合致する解釈可能性を示す手法の有効性を示す。
また,DNNのどの層がどの層を学習したのかを定量化したTCAVに基づく公平性の概念を提案する。
論文 参考訳(メタデータ) (2022-09-13T02:19:29Z) - Algebraic Learning: Towards Interpretable Information Modeling [0.0]
この論文は、一般的な情報モデリングにおける解釈可能性の問題に対処し、問題を2つの範囲から緩和する試みである。
まず、問題指向の視点を用いて、興味深い数学的性質が自然に現れるモデリング実践に知識を取り入れる。
第二に、訓練されたモデルを考えると、基礎となるシステムに関するさらなる洞察を抽出するために様々な方法を適用することができる。
論文 参考訳(メタデータ) (2022-03-13T15:53:39Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。