論文の概要: A Critical Review of Inductive Logic Programming Techniques for
Explainable AI
- arxiv url: http://arxiv.org/abs/2112.15319v1
- Date: Fri, 31 Dec 2021 06:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 15:03:04.838221
- Title: A Critical Review of Inductive Logic Programming Techniques for
Explainable AI
- Title(参考訳): 説明可能なAIのための帰納的論理プログラミング手法の批判的レビュー
- Authors: Zheng Zhang, Levent Yilmaz and Bo Liu
- Abstract要約: インダクティブ論理プログラミング(英: Inductive Logic Programming、ILP)は、人工知能のサブフィールドである。
ILPは、例と背景知識から説明可能な一階クラッサル理論を生成する。
既存のILPシステムは、しばしば広大な解空間を持ち、誘導された解はノイズや乱れに非常に敏感である。
- 参考スコア(独自算出の注目度): 9.028858411921906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent advances in modern machine learning algorithms, the opaqueness
of their underlying mechanisms continues to be an obstacle in adoption. To
instill confidence and trust in artificial intelligence systems, Explainable
Artificial Intelligence has emerged as a response to improving modern machine
learning algorithms' explainability. Inductive Logic Programming (ILP), a
subfield of symbolic artificial intelligence, plays a promising role in
generating interpretable explanations because of its intuitive logic-driven
framework. ILP effectively leverages abductive reasoning to generate
explainable first-order clausal theories from examples and background
knowledge. However, several challenges in developing methods inspired by ILP
need to be addressed for their successful application in practice. For example,
existing ILP systems often have a vast solution space, and the induced
solutions are very sensitive to noises and disturbances. This survey paper
summarizes the recent advances in ILP and a discussion of statistical
relational learning and neural-symbolic algorithms, which offer synergistic
views to ILP. Following a critical review of the recent advances, we delineate
observed challenges and highlight potential avenues of further ILP-motivated
research toward developing self-explanatory artificial intelligence systems.
- Abstract(参考訳): 最近の機械学習アルゴリズムの進歩にもかかわらず、基盤となるメカニズムの不透明さが採用の障害となっている。
人工知能システムの信頼性と信頼性を高めるために、現代の機械学習アルゴリズムの説明可能性の向上に対する反応として説明可能な人工知能が登場した。
インダクティブ論理プログラミング(ILP)は,その直感的な論理駆動型フレームワークによって解釈可能な説明を生成する上で,有望な役割を担っている。
ilpは帰納的推論を効果的に活用し、例と背景知識から説明可能な一階クラウス理論を生成する。
しかし、ICPにインスパイアされた手法開発におけるいくつかの課題は、実際に成功したアプリケーションに対処する必要がある。
例えば、既存のILPシステムは広大な解空間を持ち、誘導された解はノイズや乱れに非常に敏感である。
本稿では、ilpの最近の進歩と、icpの相乗的視点を提供する統計的関係学習とニューラルシンボリックアルゴリズムの議論を要約する。
近年の進歩を批判的にレビューし、観察した課題を概説し、自己説明型人工知能システムの開発に向けたさらなる ilp モチベーション研究の可能性を強調した。
関連論文リスト
- A Mechanistic Explanatory Strategy for XAI [0.0]
本稿では,ディープラーニングシステムの機能的構造を説明するためのメカニズム的戦略を概説する。
メカニスティックアプローチによると、不透明なAIシステムの説明には、意思決定を促進するメカニズムの特定が含まれる。
この研究は、モデル組織を研究するための体系的なアプローチが、より単純な(あるいはより控えめな)説明可能性技術が欠落する可能性のある要素を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2024-11-02T18:30:32Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Explainable Artificial Intelligence Techniques for Accurate Fault Detection and Diagnosis: A Review [0.0]
この文脈でeXplainable AI(XAI)ツールとテクニックをレビューする。
私たちは、AI決定を透明にする彼らの役割、特に人間が関与する重要なシナリオに重点を置いています。
モデル性能と説明可能性のバランスをとることを目的とした,現在の限界と今後の研究について論じる。
論文 参考訳(メタデータ) (2024-04-17T17:49:38Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Towards Cognitive AI Systems: a Survey and Prospective on Neuro-Symbolic
AI [33.0761784111292]
ニューロシンボリックAIは、解釈可能性、堅牢性、信頼性を高めるための有望なパラダイムとして登場します。
近年のNSAIシステムは、推論と認知能力を備えた協調的な人間-AIシナリオにおいて大きな可能性を実証している。
論文 参考訳(メタデータ) (2024-01-02T05:00:54Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Vision Paper: Causal Inference for Interpretable and Robust Machine
Learning in Mobility Analysis [71.2468615993246]
インテリジェントな輸送システムを構築するには、人工知能とモビリティ分析の複雑な組み合わせが必要である。
ここ数年、高度なディープニューラルネットワークを使った輸送アプリケーションの開発が急速に進んでいる。
このビジョンペーパーは、解釈可能性と堅牢性を必要とするディープラーニングに基づくモビリティ分析における研究課題を強調する。
論文 参考訳(メタデータ) (2022-10-18T17:28:58Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。