論文の概要: A Critical Review of Inductive Logic Programming Techniques for
Explainable AI
- arxiv url: http://arxiv.org/abs/2112.15319v1
- Date: Fri, 31 Dec 2021 06:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 15:03:04.838221
- Title: A Critical Review of Inductive Logic Programming Techniques for
Explainable AI
- Title(参考訳): 説明可能なAIのための帰納的論理プログラミング手法の批判的レビュー
- Authors: Zheng Zhang, Levent Yilmaz and Bo Liu
- Abstract要約: インダクティブ論理プログラミング(英: Inductive Logic Programming、ILP)は、人工知能のサブフィールドである。
ILPは、例と背景知識から説明可能な一階クラッサル理論を生成する。
既存のILPシステムは、しばしば広大な解空間を持ち、誘導された解はノイズや乱れに非常に敏感である。
- 参考スコア(独自算出の注目度): 9.028858411921906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent advances in modern machine learning algorithms, the opaqueness
of their underlying mechanisms continues to be an obstacle in adoption. To
instill confidence and trust in artificial intelligence systems, Explainable
Artificial Intelligence has emerged as a response to improving modern machine
learning algorithms' explainability. Inductive Logic Programming (ILP), a
subfield of symbolic artificial intelligence, plays a promising role in
generating interpretable explanations because of its intuitive logic-driven
framework. ILP effectively leverages abductive reasoning to generate
explainable first-order clausal theories from examples and background
knowledge. However, several challenges in developing methods inspired by ILP
need to be addressed for their successful application in practice. For example,
existing ILP systems often have a vast solution space, and the induced
solutions are very sensitive to noises and disturbances. This survey paper
summarizes the recent advances in ILP and a discussion of statistical
relational learning and neural-symbolic algorithms, which offer synergistic
views to ILP. Following a critical review of the recent advances, we delineate
observed challenges and highlight potential avenues of further ILP-motivated
research toward developing self-explanatory artificial intelligence systems.
- Abstract(参考訳): 最近の機械学習アルゴリズムの進歩にもかかわらず、基盤となるメカニズムの不透明さが採用の障害となっている。
人工知能システムの信頼性と信頼性を高めるために、現代の機械学習アルゴリズムの説明可能性の向上に対する反応として説明可能な人工知能が登場した。
インダクティブ論理プログラミング(ILP)は,その直感的な論理駆動型フレームワークによって解釈可能な説明を生成する上で,有望な役割を担っている。
ilpは帰納的推論を効果的に活用し、例と背景知識から説明可能な一階クラウス理論を生成する。
しかし、ICPにインスパイアされた手法開発におけるいくつかの課題は、実際に成功したアプリケーションに対処する必要がある。
例えば、既存のILPシステムは広大な解空間を持ち、誘導された解はノイズや乱れに非常に敏感である。
本稿では、ilpの最近の進歩と、icpの相乗的視点を提供する統計的関係学習とニューラルシンボリックアルゴリズムの議論を要約する。
近年の進歩を批判的にレビューし、観察した課題を概説し、自己説明型人工知能システムの開発に向けたさらなる ilp モチベーション研究の可能性を強調した。
関連論文リスト
- Towards Cognitive AI Systems: a Survey and Prospective on Neuro-Symbolic
AI [33.0761784111292]
ニューロシンボリックAIは、解釈可能性、堅牢性、信頼性を高めるための有望なパラダイムとして登場します。
近年のNSAIシステムは、推論と認知能力を備えた協調的な人間-AIシナリオにおいて大きな可能性を実証している。
論文 参考訳(メタデータ) (2024-01-02T05:00:54Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical
Reasoning Capabilities of Language Models [58.76688462256284]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
一つのタスクトレーニング,複数タスクトレーニング,および思考知識の蒸留微調整手法の連鎖について検討し,異なる論理的推論カテゴリにおけるモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - Vision Paper: Causal Inference for Interpretable and Robust Machine
Learning in Mobility Analysis [71.2468615993246]
インテリジェントな輸送システムを構築するには、人工知能とモビリティ分析の複雑な組み合わせが必要である。
ここ数年、高度なディープニューラルネットワークを使った輸送アプリケーションの開発が急速に進んでいる。
このビジョンペーパーは、解釈可能性と堅牢性を必要とするディープラーニングに基づくモビリティ分析における研究課題を強調する。
論文 参考訳(メタデータ) (2022-10-18T17:28:58Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Neurosymbolic AI: The 3rd Wave [1.14219428942199]
AIの信頼、安全性、解釈可能性、説明責任に関する懸念は、影響力のある思想家によって提起された。
多くは、知識表現と推論を深層学習に統合する必要性を認識している。
ニューラル・シンボリック・コンピューティングは、推論と説明可能性を備えた堅牢な学習をニューラルネットワークで組み合わせようとする研究の活発な領域である。
論文 参考訳(メタデータ) (2020-12-10T18:31:38Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。