論文の概要: Knowledge-based XAI through CBR: There is more to explanations than
models can tell
- arxiv url: http://arxiv.org/abs/2108.10363v1
- Date: Mon, 23 Aug 2021 19:01:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:21:59.528839
- Title: Knowledge-based XAI through CBR: There is more to explanations than
models can tell
- Title(参考訳): CBRによる知識ベースXAI:モデルが理解できる以上の説明がある
- Authors: Rosina Weber, Manil Shrestha, Adam J Johs
- Abstract要約: 我々は、データ中心の人工知能エージェントが使用するデータを補完するために、ドメイン知識を利用することを提案する。
我々は、知識に基づく説明可能な人工知能を、CBR手法に沿った教師付きデータ分類問題として定式化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The underlying hypothesis of knowledge-based explainable artificial
intelligence is the data required for data-centric artificial intelligence
agents (e.g., neural networks) are less diverse in contents than the data
required to explain the decisions of such agents to humans. The idea is that a
classifier can attain high accuracy using data that express a phenomenon from
one perspective whereas the audience of explanations can entail multiple
stakeholders and span diverse perspectives. We hence propose to use domain
knowledge to complement the data used by agents. We formulate knowledge-based
explainable artificial intelligence as a supervised data classification problem
aligned with the CBR methodology. In this formulation, the inputs are case
problems composed of both the inputs and outputs of the data-centric agent and
case solutions, the outputs, are explanation categories obtained from domain
knowledge and subject matter experts. This formulation does not typically lead
to an accurate classification, preventing the selection of the correct
explanation category. Knowledge-based explainable artificial intelligence
extends the data in this formulation by adding features aligned with domain
knowledge that can increase accuracy when selecting explanation categories.
- Abstract(参考訳): 知識に基づく説明可能な人工知能の根底にある仮説は、データ中心の人工知能エージェント(ニューラルネットワークなど)に必要なデータは、そのようなエージェントの人間への決定を説明するのに必要なデータよりも、内容の多様性が低いことである。
分類器は1つの視点から現象を表現するデータを使って高い精度を達成できるが、説明のオーディエンスは複数の利害関係者を伴い、多様な視点にまたがる。
したがって、エージェントが使用するデータを補完するためにドメイン知識を使うことを提案する。
我々は,cbr法に準拠した教師付きデータ分類問題として,知識に基づく説明可能な人工知能を定式化する。
この定式化において、入力は、データ中心エージェントの入力と出力の両方からなるケース問題であり、そのケースソリューションは、ドメイン知識と課題の専門家から得られた説明カテゴリである。
この定式化は一般的に正確な分類を導くものではなく、正しい説明カテゴリーの選択を妨げている。
知識ベースの説明可能な人工知能は、説明カテゴリを選択する際に正確性を高めるドメイン知識に合わせた機能を追加することで、この定式化のデータを拡張します。
関連論文リスト
- Understanding Generative AI Content with Embedding Models [4.662332573448995]
この研究は、現代のディープニューラルネットワーク(DNN)の内部表現を、従来の機能エンジニアリングの自動化形式として捉えている。
これらの埋め込みは、非構造化サンプルデータに解釈可能で高レベルな概念を明らかにすることができることを示す。
実データとAIモデルから生成されたデータの間には、本質的に分離性が存在するという実証的な証拠が見つかる。
論文 参考訳(メタデータ) (2024-08-19T22:07:05Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Attribution-Scores and Causal Counterfactuals as Explanations in
Artificial Intelligence [0.0]
私たちは、人工知能、一般に、そして、エミュレート可能なAIにおける新しい発展に対する説明の関連性を強調します。
本稿では、帰属スコアに基づくデータ管理や機械学習における説明、因果関係の領域で見られる反事実を簡潔に記述する。
論文 参考訳(メタデータ) (2023-03-06T01:46:51Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - On Explainability in AI-Solutions: A Cross-Domain Survey [4.394025678691688]
システムモデルを自動的に導出する際、AIアルゴリズムは人間には検出できないデータで関係を学習する。
モデルが複雑になればなるほど、人間が意思決定の理由を理解するのが難しくなる。
この研究は、この話題に関する広範な文献調査を提供し、その大部分は、他の調査から成っている。
論文 参考訳(メタデータ) (2022-10-11T06:21:47Z) - Do Deep Neural Networks Always Perform Better When Eating More Data? [82.6459747000664]
Identically Independent Distribution(IID)とOut of Distribution(OOD)による実験を設計する。
IID条件下では、情報の量は各サンプルの効果度、サンプルの寄与度、クラス間の差がクラス情報の量を決定する。
OOD条件下では、試料のクロスドメイン度が寄与を決定づけ、無関係元素によるバイアス適合はクロスドメインの重要な要素である。
論文 参考訳(メタデータ) (2022-05-30T15:40:33Z) - Enriching Artificial Intelligence Explanations with Knowledge Fragments [0.415623340386296]
この研究は、特定の予測のための機能ランキングを考慮し、メディアニュースエントリ、データセットのメタデータ、Google Knowledge Graphからのエントリを豊かにすることで、説明を構築している。
需要予測に関する実世界のユースケースにおける2つのアプローチ(埋め込みベースと意味ベース)を比較した。
論文 参考訳(メタデータ) (2022-04-12T07:19:30Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explainable AI for Classification using Probabilistic Logic Inference [9.656846523452502]
説明可能な分類法を提案する。
本手法は,まず学習データから記号的知識ベースを構築し,その知識ベース上で線形プログラミングによる確率的推論を行う。
これは、ある分類を説明として責任を負う決定的な特徴を特定し、アートリー値ベースの手法であるSHAPに類似した結果を生成する。
論文 参考訳(メタデータ) (2020-05-05T11:39:23Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。