論文の概要: Declarative Reasoning on Explanations Using Constraint Logic Programming
- arxiv url: http://arxiv.org/abs/2309.00422v1
- Date: Fri, 1 Sep 2023 12:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 13:29:55.751801
- Title: Declarative Reasoning on Explanations Using Constraint Logic Programming
- Title(参考訳): 制約論理プログラミングを用いた説明の宣言的推論
- Authors: Laura State, Salvatore Ruggieri, Franco Turini
- Abstract要約: REASONXは制約論理プログラミング(CLP)に基づく説明法である
本稿では,ユーザに近いPythonレイヤとCLPレイヤで構成されるREASONXのアーキテクチャについて述べる。
REASONXのコア実行エンジンは論理理論の観点から宣言的意味論を持つPrologメタプログラムである。
- 参考スコア(独自算出の注目度): 12.039469573641217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining opaque Machine Learning (ML) models is an increasingly relevant
problem. Current explanation in AI (XAI) methods suffer several shortcomings,
among others an insufficient incorporation of background knowledge, and a lack
of abstraction and interactivity with the user. We propose REASONX, an
explanation method based on Constraint Logic Programming (CLP). REASONX can
provide declarative, interactive explanations for decision trees, which can be
the ML models under analysis or global/local surrogate models of any black-box
model. Users can express background or common sense knowledge using linear
constraints and MILP optimization over features of factual and contrastive
instances, and interact with the answer constraints at different levels of
abstraction through constraint projection. We present here the architecture of
REASONX, which consists of a Python layer, closer to the user, and a CLP layer.
REASONX's core execution engine is a Prolog meta-program with declarative
semantics in terms of logic theories.
- Abstract(参考訳): 不透明な機械学習(ML)モデルの説明は、ますます関連する問題となっている。
ai(xai)メソッドの現在の説明にはいくつかの欠点があり、背景知識の組み入れ不足や、ユーザとの抽象化と対話性の欠如などがあげられる。
本稿では,制約論理プログラミング(CLP)に基づく説明手法REASONXを提案する。
REASONXは、分析対象のMLモデルや、任意のブラックボックスモデルのグローバル/ローカルサロゲートモデルといった、宣言的で対話的な決定木の説明を提供することができる。
ユーザは、実例と対照的なインスタンスの特徴に対して線形制約とMILP最適化を使用して背景知識や常識知識を表現でき、制約プロジェクションを通じて様々なレベルの抽象化で回答制約と対話できる。
本稿では,ユーザに近いPythonレイヤとCLPレイヤで構成されるREASONXのアーキテクチャについて述べる。
REASONXのコア実行エンジンは論理理論の観点から宣言的意味論を持つPrologメタプログラムである。
関連論文リスト
- SymbolicAI: A framework for logic-based approaches combining generative
models and solvers [10.558183419341514]
SymbolicAIは、生成プロセスにおける概念学習とフロー管理に論理ベースのアプローチを採用する、汎用的でモジュール化されたフレームワークである。
我々は,大規模言語モデル(LLM)を,自然言語命令と形式言語命令の両方に基づいてタスクを実行する意味的解決器として扱う。
論文 参考訳(メタデータ) (2024-02-01T18:50:50Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Reason to explain: Interactive contrastive explanations (REASONX) [5.156484100374058]
制約論理プログラミング(CLP)に基づく説明ツールREASONXについて述べる。
REASONXは、背景知識によって拡張できる対話的な対照的な説明を提供する。
実例と論証的決定ルールを計算し、最も近い論証的な例を出力する。
論文 参考訳(メタデータ) (2023-05-29T15:13:46Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - OmniXAI: A Library for Explainable AI [98.07381528393245]
eXplainable AI(XAI)のオープンソースPythonライブラリであるOmniXAIを紹介する。
オールニウェイで説明可能なAI機能と、さまざまな解釈可能な機械学習技術を提供する。
実践者にとってこのライブラリは、アプリケーションの説明を生成するために、使いやすく統合されたインターフェースを提供する。
論文 参考訳(メタデータ) (2022-06-01T11:35:37Z) - $\partial$-Explainer: Abductive Natural Language Inference via
Differentiable Convex Optimization [2.624902795082451]
本稿では,Deep Neural Networkの一部として制約付き最適化をキャストすることにより,両世界の長所を組み合わせた$partial$-Explainer(Diff-Explainer)という新しいフレームワークを提案する。
我々の実験は、その推論をサポートするための説明を提供しながら、非微分型解法よりも約10%高い改善率を示しました。
論文 参考訳(メタデータ) (2021-05-07T17:49:19Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z) - LIMEtree: Interactively Customisable Explanations Based on Local
Surrogate Multi-output Regression Trees [21.58324172085553]
LIMEtree と呼ばれるブラックボックス予測のためのモデル非依存的かつポストホックな局所的説明可能性手法を提案する。
画像中の物体検出を訓練したディープニューラルネットワーク上でアルゴリズムを検証し,LIME(Local Interpretable Model-Agnostic Explanations)と比較する。
本手法は局所的忠実度保証を伴い,多種多様な説明型を生成する。
論文 参考訳(メタデータ) (2020-05-04T12:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。