論文の概要: An XAI View on Explainable ASP: Methods, Systems, and Perspectives
- arxiv url: http://arxiv.org/abs/2601.14764v1
- Date: Wed, 21 Jan 2026 08:37:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.293463
- Title: An XAI View on Explainable ASP: Methods, Systems, and Perspectives
- Title(参考訳): 説明可能なASP:メソッド、システム、展望に関するXAIビュー
- Authors: Thomas Eiter, Tobias Geibinger, Zeynep G. Saribatur,
- Abstract要約: Answer Set Programming (ASP)は、シンボリックAIにおける一般的な宣言的推論と問題解決のアプローチである。
本稿では、ユーザによる説明に関する質問に関連するASPの説明のタイプの概要と、現在の理論やツールによるそのカバレッジについて述べる。
既存のASP説明アプローチのギャップを指摘し、今後の研究の方向性を特定します。
- 参考スコア(独自算出の注目度): 16.631602844999723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Answer Set Programming (ASP) is a popular declarative reasoning and problem solving approach in symbolic AI. Its rule-based formalism makes it inherently attractive for explainable and interpretive reasoning, which is gaining importance with the surge of Explainable AI (XAI). A number of explanation approaches and tools for ASP have been developed, which often tackle specific explanatory settings and may not cover all scenarios that ASP users encounter. In this survey, we provide, guided by an XAI perspective, an overview of types of ASP explanations in connection with user questions for explanation, and describe how their coverage by current theory and tools. Furthermore, we pinpoint gaps in existing ASP explanations approaches and identify research directions for future work.
- Abstract(参考訳): Answer Set Programming (ASP)は、シンボリックAIにおける一般的な宣言的推論と問題解決のアプローチである。
その規則に基づく形式主義は、説明可能な推論と解釈可能な推論を本質的に魅力的にし、説明可能なAI(XAI)の急激な普及とともに重要性が増している。
ASPのさまざまな説明手法やツールが開発されており、特定の説明的設定に対処することが多く、ASPユーザが遭遇するすべてのシナリオをカバーするものではない。
本調査では,XAI の視点を参考に,ユーザからの質問に関連する ASP の説明のタイプについて概説し,現在の理論やツールによるカバレッジについて解説する。
さらに,既存のASP説明手法のギャップを指摘し,今後の研究の方向性を明らかにする。
関連論文リスト
- A Comprehensive Guide to Explainable AI: From Classical Models to LLMs [25.07463077055411]
説明可能な人工知能(XAI)は、AIシステムにおける透明性と解釈可能性の必要性の高まりに対処する。
決定木、線形回帰、サポートベクトルマシンといった従来のモデルの解釈可能性を探る。
本書は、SHAP、LIME、Grad-CAM、反実的説明、因果推論などの実践的なテクニックを提示する。
論文 参考訳(メタデータ) (2024-12-01T13:01:01Z) - An Ontology-Enabled Approach For User-Centered and Knowledge-Enabled Explanations of AI Systems [0.3480973072524161]
説明可能性に関する最近の研究は、AIモデルやモデル説明可能性の動作を説明することに重点を置いている。
この論文は、モデルとユーザ中心の説明可能性の間のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2024-10-23T02:03:49Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Explainable Answer-set Programming [0.0]
プロジェクトはこれらのギャップのいくつかを埋めることを目的としており、ASP.NET ASP.NET MVCにおける技術の現状に貢献することを目的としている。
我々は、既存のアプローチの言語サポートを拡張するだけでなく、新しい説明形式を発達させることによって、この問題に対処する。
論文 参考訳(メタデータ) (2023-08-30T09:09:57Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Tools and Methodologies for Verifying Answer Set Programs [0.0]
ASP.NETは強力な宣言型プログラミングパラダイムで、検索と最適化の課題を解決するのによく使われます。
知識表現と推論へのアプローチとして、ASPはその単純さ、簡潔さ、厳密に定義されたセマンティクスから恩恵を受ける。
私の研究は、ASPプロガムの検証をサポートする理論とツールの拡張に関するものです。
論文 参考訳(メタデータ) (2022-08-05T10:50:21Z) - Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR [2.578242050187029]
ExplanatorY AI(YAI)はXAI上に構築され、説明可能な情報の収集と整理を目的としている。
本稿では,自動意思決定システム(ADM)について,説明空間上の適切な経路を特定するための説明を生成する問題について述べる。
論文 参考訳(メタデータ) (2021-10-02T08:48:47Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。