論文の概要: ReasonX: Declarative Reasoning on Explanations
- arxiv url: http://arxiv.org/abs/2602.23810v1
- Date: Fri, 27 Feb 2026 08:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.333353
- Title: ReasonX: Declarative Reasoning on Explanations
- Title(参考訳): ReasonX: 説明に関する宣言的推論
- Authors: Laura State, Salvatore Ruggieri, Franco Turini,
- Abstract要約: ReasonX は線型制約の理論上の作用素の閉代数における式(あるいはクエリ)に基づく説明ツールである。
ユーザーは背景知識や常識知識を線形制約として表現することができる。
- 参考スコア(独自算出の注目度): 7.744846780771137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining opaque Machine Learning (ML) models has become an increasingly important challenge. However, current eXplanation in AI (XAI) methods suffer several shortcomings, including insufficient abstraction, limited user interactivity, and inadequate integration of symbolic knowledge. We propose ReasonX, an explanation tool based on expressions (or, queries) in a closed algebra of operators over theories of linear constraints. ReasonX provides declarative and interactive explanations for decision trees, which may represent the ML models under analysis or serve as global or local surrogate models for any black-box predictor. Users can express background or common sense knowledge as linear constraints. This allows for reasoning at multiple levels of abstraction, ranging from fully specified examples to under-specified or partially constrained ones. ReasonX leverages Mixed-Integer Linear Programming (MILP) to reason over the features of factual and contrastive instances. We present here the architecture of ReasonX, which consists of a Python layer, closer to the user, and a Constraint Logic Programming (CLP) layer, which implements a meta-interpreter of the query algebra. The capabilities of ReasonX are demonstrated through qualitative examples, and compared to other XAI tools through quantitative experiments.
- Abstract(参考訳): 不透明な機械学習(ML)モデルの説明は、ますます重要な課題となっている。
しかしながら、現在のAI(XAI)メソッドのeXplanationには、抽象化の不十分、ユーザ対話性の制限、記号的知識の不十分な統合など、いくつかの欠点がある。
線形制約の理論上の作用素の閉代数における式(あるいはクエリ)に基づく説明ツールReasonXを提案する。
ReasonXは、分析中のMLモデルを表現したり、ブラックボックス予測器のグローバルまたはローカルサロゲートモデルとして機能する、決定ツリーの宣言的かつインタラクティブな説明を提供する。
ユーザーは背景知識や常識知識を線形制約として表現することができる。
これにより、完全に指定された例から、未特定または部分的に制約された例まで、さまざまなレベルの抽象化での推論が可能になる。
ReasonXはMILP(Mixed-Integer Linear Programming)を利用して、実例と対照的なインスタンスの特徴を推論する。
本稿では、ユーザに近いPythonレイヤと、クエリ代数のメタ解釈を実装するConstraint Logic Programming(CLP)レイヤで構成されるReasonXのアーキテクチャについて述べる。
ReasonXの能力は定性的な例を通して実証され、定量的実験によって他のXAIツールと比較される。
関連論文リスト
- OrLog: Resolving Complex Queries with LLMs and Probabilistic Reasoning [51.58235452818926]
そこで我々は,論理的推論から述語レベルの妥当性推定を分離するニューロシンボリック検索フレームワークOrLogを紹介する。
大規模言語モデル (LLM) は1つの復号のない前方通過において原子述語に対する可視性スコアを提供し、確率論的推論エンジンはクエリ満足度の後方確率を導出する。
論文 参考訳(メタデータ) (2026-01-30T15:31:58Z) - ZebraLogic: On the Scaling Limits of LLMs for Logical Reasoning [92.76959707441954]
我々はLLM推論性能を評価するための総合的な評価フレームワークであるZebraLogicを紹介した。
ZebraLogicは、制御可能で定量化可能な複雑さを持つパズルの生成を可能にする。
その結果,複雑性が増大するにつれて,精度が著しく低下することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-03T06:44:49Z) - Towards Symbolic XAI -- Explanation Through Human Understandable Logical Relationships Between Features [19.15360328688008]
本稿では,入力特徴間の論理的関係を表すシンボリッククエリに関連性を持つ,シンボリックXAIというフレームワークを提案する。
このフレームワークは、ユーザーによるカスタマイズと人間可読性の両方に柔軟性のある、モデルの意思決定プロセスを理解する。
論文 参考訳(メタデータ) (2024-08-30T10:52:18Z) - Why do explanations fail? A typology and discussion on failures in XAI [5.366368559381279]
結果として生じる害は、XAIにおける複数の障害の複雑な重複から生じると我々は主張する。
本稿では,説明失敗の複雑さを明らかにするためのタイプ的枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-22T09:32:24Z) - Distance-Restricted Explanations: Theoretical Underpinnings & Efficient Implementation [19.22391463965126]
機械学習(ML)のいくつかの用途には、高い評価と安全性クリティカルなアプリケーションが含まれる。
本稿では,論理ベースの説明器の性能向上のための新しいアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2024-05-14T03:42:33Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Declarative Reasoning on Explanations Using Constraint Logic Programming [12.039469573641217]
REASONXは制約論理プログラミング(CLP)に基づく説明法である
本稿では,ユーザに近いPythonレイヤとCLPレイヤで構成されるREASONXのアーキテクチャについて述べる。
REASONXのコア実行エンジンは論理理論の観点から宣言的意味論を持つPrologメタプログラムである。
論文 参考訳(メタデータ) (2023-09-01T12:31:39Z) - Theoretical Behavior of XAI Methods in the Presence of Suppressor
Variables [0.8602553195689513]
近年,「説明可能な人工知能(XAI)」のコミュニティは,モデル「複雑性」と「解釈可能性」のギャップを埋めるための膨大な手法を生み出している。
本研究のアプローチの大部分は, 相関雑音の存在下での非クラス関連抑制機能に非ゼロの重要性が寄与すると考えられる。
論文 参考訳(メタデータ) (2023-06-02T11:41:19Z) - Reason to explain: Interactive contrastive explanations (REASONX) [5.156484100374058]
制約論理プログラミング(CLP)に基づく説明ツールREASONXについて述べる。
REASONXは、背景知識によって拡張できる対話的な対照的な説明を提供する。
実例と論証的決定ルールを計算し、最も近い論証的な例を出力する。
論文 参考訳(メタデータ) (2023-05-29T15:13:46Z) - OmniXAI: A Library for Explainable AI [98.07381528393245]
eXplainable AI(XAI)のオープンソースPythonライブラリであるOmniXAIを紹介する。
オールニウェイで説明可能なAI機能と、さまざまな解釈可能な機械学習技術を提供する。
実践者にとってこのライブラリは、アプリケーションの説明を生成するために、使いやすく統合されたインターフェースを提供する。
論文 参考訳(メタデータ) (2022-06-01T11:35:37Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。