論文の概要: Interpretable Hybrid Machine Learning Models Using FOLD-R++ and Answer Set Programming
- arxiv url: http://arxiv.org/abs/2506.19573v1
- Date: Tue, 24 Jun 2025 12:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.624844
- Title: Interpretable Hybrid Machine Learning Models Using FOLD-R++ and Answer Set Programming
- Title(参考訳): FOLD-R++と解集合プログラミングを用いた解釈可能なハイブリッド機械学習モデル
- Authors: Sanne Wielinga, Jesse Heyninck,
- Abstract要約: 並列的に、Answer Set Programming (ASP)のようなシンボリックなメソッドは、解釈可能な論理ルールを提供する。
本稿では,FOLD-R++アルゴリズムとブラックボックスML分類器を併用するハイブリッド手法を提案する。
5つの医学データセットの実験では、統計的に有意なパフォーマンス向上とF1スコアが示された。
- 参考スコア(独自算出の注目度): 5.911540700785975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) techniques play a pivotal role in high-stakes domains such as healthcare, where accurate predictions can greatly enhance decision-making. However, most high-performing methods such as neural networks and ensemble methods are often opaque, limiting trust and broader adoption. In parallel, symbolic methods like Answer Set Programming (ASP) offer the possibility of interpretable logical rules but do not always match the predictive power of ML models. This paper proposes a hybrid approach that integrates ASP-derived rules from the FOLD-R++ algorithm with black-box ML classifiers to selectively correct uncertain predictions and provide human-readable explanations. Experiments on five medical datasets reveal statistically significant performance gains in accuracy and F1 score. This study underscores the potential of combining symbolic reasoning with conventional ML to achieve high interpretability without sacrificing accuracy.
- Abstract(参考訳): 機械学習(ML)技術は、正確な予測によって意思決定が大幅に向上する医療など、ハイテイクな領域において重要な役割を果たす。
しかしながら、ニューラルネットワークやアンサンブル手法のような高いパフォーマンスの手法は、しばしば不透明であり、信頼とより広範な採用を制限する。
並列的に、Answer Set Programming (ASP)のようなシンボリックな手法は、解釈可能な論理ルールの可能性を提供するが、必ずしもMLモデルの予測力と一致しない。
本稿では,FOLD-R++アルゴリズムのASPルールをブラックボックスML分類器に統合し,不確実な予測を選択的に補正し,人間可読な説明を提供するハイブリッドアプローチを提案する。
5つの医学データセットの実験では、統計的に有意なパフォーマンス向上とF1スコアが示された。
本研究は,記号推論と従来のMLを組み合わせることで,精度を犠牲にすることなく高い解釈性を実現する可能性を示す。
関連論文リスト
- Unveil Sources of Uncertainty: Feature Contribution to Conformal Prediction Intervals [0.3495246564946556]
共形予測(CP)に基づく新しいモデルに依存しない不確実性属性(UA)法を提案する。
我々は,CP間隔特性-幅や境界条件-を値関数として定義し,入力特徴に対する予測不確かさを属性とする協調ゲームを定義する。
人工ベンチマークと実世界のデータセットを用いた実験は、我々のアプローチの実用的有用性と解釈的深さを実証する。
論文 参考訳(メタデータ) (2025-05-19T13:49:05Z) - Random-Set Large Language Models [4.308457163593758]
大規模言語モデル(LLM)は、クエリに対する非常に高品質なテストとレスポンスを生成することで知られています。
しかし、この生成されたテキストはいくら信用できますか?
本稿では,トークン空間上の有限ランダム集合(関数)を予測するランダムセット大言語モデル(RSLLM)を提案する。
論文 参考訳(メタデータ) (2025-04-25T05:25:27Z) - Achieving interpretable machine learning by functional decomposition of black-box models into explainable predictor effects [4.3500439062103435]
ブラックボックス予測の関数分解のための新しい手法を提案する。
加法回帰モデルと同様に,本手法は主特徴量の方向と強度に関する洞察を与える。
論文 参考訳(メタデータ) (2024-07-26T10:37:29Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率のよいアンサンブル手法であるLoRA-Ensembleを紹介する。
この方法は、BatchEnsembleのような最先端の暗黙のテクニックを上回るだけでなく、Explicit Ensembleの正確さにマッチするか超える。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Augmenting Interpretable Models with LLMs during Training [73.40079895413861]
本稿では,効率よく解釈可能なモデルを構築するための拡張解釈モデル (Aug-imodels) を提案する。
Aug-imodel は、フィッティング時に LLM を使用するが、推論中に使用せず、完全な透明性を実現する。
自然言語処理におけるAug-imodelのインスタンス化について検討する: (i) Aug-GAM, (ii) Aug-Tree, (ii) LLM機能拡張による決定木の拡大。
論文 参考訳(メタデータ) (2022-09-23T18:36:01Z) - Tree-based local explanations of machine learning model predictions,
AraucanaXAI [2.9660372210786563]
パフォーマンスと知性の間のトレードオフは、特に医学のような高度な応用において、しばしば直面する。
本稿では,ジェネリックMLモデルの予測に関する説明を生成するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T17:39:19Z) - Surrogate Locally-Interpretable Models with Supervised Machine Learning
Algorithms [8.949704905866888]
近年,従来の統計的手法よりも予測性能が優れているため,機械学習アルゴリズムが普及している。
主な焦点は解釈可能性であり、結果として得られるサロゲートモデルは、合理的に優れた予測性能を持つ。
論文 参考訳(メタデータ) (2020-07-28T23:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。