論文の概要: On Logic-Based Explainability with Partially Specified Inputs
- arxiv url: http://arxiv.org/abs/2306.15803v1
- Date: Tue, 27 Jun 2023 21:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 16:23:34.117619
- Title: On Logic-Based Explainability with Partially Specified Inputs
- Title(参考訳): 部分特定入力による論理的説明可能性について
- Authors: Ram\'on B\'ejar and Ant\'onio Morgado and Jordi Planes and Joao
Marques-Silva
- Abstract要約: 機械学習(ML)モデルのトレーニングでは、データの欠落がしばしば対処される。
しかし、予測を決定するときにも、それらの予測を説明するときにも、欠落したデータに対処する必要がある。
本稿では,部分的な入力が存在する場合の論理的説明の計算について検討する。
- 参考スコア(独自算出の注目度): 1.7587442088965224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the practical deployment of machine learning (ML) models, missing data
represents a recurring challenge. Missing data is often addressed when training
ML models. But missing data also needs to be addressed when deciding
predictions and when explaining those predictions. Missing data represents an
opportunity to partially specify the inputs of the prediction to be explained.
This paper studies the computation of logic-based explanations in the presence
of partially specified inputs. The paper shows that most of the algorithms
proposed in recent years for computing logic-based explanations can be
generalized for computing explanations given the partially specified inputs.
One related result is that the complexity of computing logic-based explanations
remains unchanged. A similar result is proved in the case of logic-based
explainability subject to input constraints. Furthermore, the proposed solution
for computing explanations given partially specified inputs is applied to
classifiers obtained from well-known public datasets, thereby illustrating a
number of novel explainability use cases.
- Abstract(参考訳): 機械学習(ML)モデルの実践的な展開では、欠落したデータが繰り返し発生する課題である。
MLモデルのトレーニングでは、データの欠落がしばしば対処される。
しかし、データ欠落は予測を決定するときやそれらの予測を説明するときにも対処する必要がある。
ミスデータは、説明すべき予測の入力を部分的に特定する機会である。
本稿では,論理に基づく説明を部分指定入力の存在下での計算について検討する。
本論文は,近年提案された論理に基づく説明のアルゴリズムのほとんどが,部分指定された入力を考慮すれば,説明の計算に一般化できることを示す。
関連する1つの結果は、論理に基づく説明の複雑さが変わらないことである。
同様の結果は、入力制約を受ける論理に基づく説明可能性の場合に証明される。
さらに、有名な公開データセットから得られた分類器に対して、部分的に指定された入力が与えられた説明を計算するためのソリューションを適用し、新しい説明可能性のユースケースを多数提示する。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Rethinking Complex Queries on Knowledge Graphs with Neural Link Predictors [58.340159346749964]
本稿では,証明可能な推論能力を備えた複雑なクエリを用いたエンドツーエンド学習を支援するニューラルシンボリック手法を提案する。
これまでに検討されていない10種類の新しいクエリを含む新しいデータセットを開発する。
提案手法は,新しいデータセットにおいて先行手法を著しく上回り,既存データセットにおける先行手法を同時に上回っている。
論文 参考訳(メタデータ) (2023-04-14T11:35:35Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Feature Necessity & Relevancy in ML Classifier Explanations [5.232306238197686]
機械学習(ML)モデルと予測が与えられた場合、説明は予測に十分な機能のセットとして定義することができる。
また、ある説明においてセンシティブな特徴が生じるのか、またはすべての説明において興味のない特徴が生じる必要があるのかを理解することも重要である。
論文 参考訳(メタデータ) (2022-10-27T12:12:45Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - LogicInference: A New Dataset for Teaching Logical Inference to seq2seq
Models [4.186923466475792]
本稿では,論理推論を行うモデルの能力を評価する新しいデータセットであるLogicInferenceを提案する。
このデータセットは、命題論理と一階述語論理の小さなサブセットを用いた推論に焦点を当てている。
また、このデータセットに初期ベースラインを確立するために、機械学習モデルの集合を用いて初期結果を報告する。
論文 参考訳(メタデータ) (2022-03-28T21:13:22Z) - Explaining Reject Options of Learning Vector Quantization Classifiers [6.125017875330933]
本稿では,機械学習モデルにおけるリジェクトの説明に反事実的説明を用いることを提案する。
重要なモデルのクラスに対して、異なる拒絶オプションの反実的説明を効率的に計算する方法を検討する。
論文 参考訳(メタデータ) (2022-02-15T08:16:10Z) - Structural Learning of Probabilistic Sentential Decision Diagrams under
Partial Closed-World Assumption [127.439030701253]
確率感性決定図は構造化分解可能な回路のクラスである。
本稿では,回路の論理的基盤を暗黙的に提供する部分閉世界仮定に基づく新しいスキームを提案する。
予備実験では、提案手法がトレーニングデータに適切に適合し、基礎となる論理的基盤と整合性を維持した上で、テストデータによく適合することを示した。
論文 参考訳(メタデータ) (2021-07-26T12:01:56Z) - Quantum Algorithms for Data Representation and Analysis [68.754953879193]
機械学習におけるデータ表現のための固有problemsの解を高速化する量子手続きを提供する。
これらのサブルーチンのパワーと実用性は、主成分分析、対応解析、潜在意味解析のための入力行列の大きさのサブ線形量子アルゴリズムによって示される。
その結果、入力のサイズに依存しない実行時のパラメータは妥当であり、計算モデル上の誤差が小さいことが示され、競合的な分類性能が得られる。
論文 参考訳(メタデータ) (2021-04-19T00:41:43Z) - Score-Based Explanations in Data Management and Machine Learning [0.0]
本稿では,データベースにおける問合せ応答と分類モデルによる結果について考察する。
説明されているアプローチは、主に因果的かつ反事実的な性質である。
論文 参考訳(メタデータ) (2020-07-24T23:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。