論文の概要: Explainability-Driven Quality Assessment for Rule-Based Systems
- arxiv url: http://arxiv.org/abs/2502.01253v1
- Date: Mon, 03 Feb 2025 11:26:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:57:17.847740
- Title: Explainability-Driven Quality Assessment for Rule-Based Systems
- Title(参考訳): ルールベースシステムにおける説明可能性駆動品質評価
- Authors: Oshani Seneviratne, Brendan Capuzzo, William Van Woensel,
- Abstract要約: 本稿では,知識に基づく推論システムにおけるルールの質を高めるための説明フレームワークを提案する。
規則推論の説明を生成し、人間の解釈を利用して規則を洗練させる。
その実用性は金融のユースケースを通じて実証される。
- 参考スコア(独自算出の注目度): 0.7303392100830282
- License:
- Abstract: This paper introduces an explanation framework designed to enhance the quality of rules in knowledge-based reasoning systems based on dataset-driven insights. The traditional method for rule induction from data typically requires labor-intensive labeling and data-driven learning. This framework provides an alternative and instead allows for the data-driven refinement of existing rules: it generates explanations of rule inferences and leverages human interpretation to refine rules. It leverages four complementary explanation types: trace-based, contextual, contrastive, and counterfactual, providing diverse perspectives for debugging, validating, and ultimately refining rules. By embedding explainability into the reasoning architecture, the framework enables knowledge engineers to address inconsistencies, optimize thresholds, and ensure fairness, transparency, and interpretability in decision-making processes. Its practicality is demonstrated through a use case in finance.
- Abstract(参考訳): 本稿では,知識に基づく推論システムにおけるルールの質向上を目的とした,データセットによる洞察に基づく説明フレームワークを提案する。
データからルールを誘導する従来の方法は、通常、労働集約的なラベル付けとデータ駆動学習を必要とする。
このフレームワークは代替手段を提供し、代わりにデータ駆動による既存のルールの洗練を可能にする。
トレースベース、コンテキスト、コントラスト、および反ファクトの4つの補完的な説明型を活用し、デバッグ、バリデーション、そして最終的にルールを洗練するためのさまざまな視点を提供する。
このフレームワークは、推論アーキテクチャに説明責任を埋め込むことで、知識エンジニアが不整合に対処し、しきい値を最適化し、意思決定プロセスにおける公正性、透明性、解釈可能性を保証することができる。
その実用性は金融のユースケースを通じて実証される。
関連論文リスト
- A Model-oriented Reasoning Framework for Privacy Analysis of Complex Systems [2.001711587270359]
本稿では,システムとその環境のプライバシ特性に関する推論フレームワークを提案する。
異なる論理レベルの知識リークをキャプチャして、質問に答えることができます。
論文 参考訳(メタデータ) (2024-05-14T06:52:56Z) - A Note on an Inferentialist Approach to Resource Semantics [48.65926948745294]
「推論主義」とは、推論行動の観点で意味が与えられるという考え方である。
本稿では,「推論主義」が資源意味論の汎用的で表現力豊かな枠組みを実現する方法を示す。
論文 参考訳(メタデータ) (2024-05-10T14:13:21Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Rule By Example: Harnessing Logical Rules for Explainable Hate Speech
Detection [13.772240348963303]
Rule By Example(RBE)は、テキストコンテンツモデレーションのタスクに対する論理規則から学習するための、新規なコントラスト学習手法である。
RBEはルール基底の予測を提供することができ、典型的なディープラーニングベースのアプローチと比較して説明可能でカスタマイズ可能な予測を可能にする。
論文 参考訳(メタデータ) (2023-07-24T16:55:37Z) - Causal Discovery with Language Models as Imperfect Experts [119.22928856942292]
専門知識を用いて因果グラフの同定を改善する方法について検討する。
整合性に基づく専門家の知識を改良するための戦略を提案する。
本稿では,不完全な専門家として大規模言語モデルを用いる実データを用いたケーススタディについて報告する。
論文 参考訳(メタデータ) (2023-07-05T16:01:38Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Integrating Prior Knowledge in Post-hoc Explanations [3.6066164404432883]
ポストホック解釈可能性法は、訓練された決定モデルの予測をユーザーに説明することを目的としている。
本稿では,事前知識を解釈可能性の目標に明示的に統合するコスト関数を提案する。
本稿では,KICE(Knowledge Integration in Counterfactual Explanation)と呼ばれる新しい解釈可能性手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T13:09:53Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Rule-based Evolutionary Bayesian Learning [0.802904964931021]
規則に基づくベイズ回帰法を文法的進化とともに拡張する。
私たちのモチベーションは、文法的な進化は、専門家の知識と同等の貴重な情報を持つデータからパターンを検出できるということです。
本稿では,ルールに基づくベイズ進化学習技術を用いて,実データと合成データに適用し,点予測と関連する不確実性の観点から結果を検証した。
論文 参考訳(メタデータ) (2022-02-28T13:24:00Z) - Rule Generation for Classification: Scalability, Interpretability, and Fairness [0.0]
制約付き分類のためのルールベースの新しい最適化手法を提案する。
ルールにコスト係数を割り当て、追加制約を導入することにより、解釈可能性と公正性に対処する。
提案手法は,一方の局所的解釈可能性と他方の正当性,他方の精度との間に良好な妥協関係を示す。
論文 参考訳(メタデータ) (2021-04-21T20:31:28Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。