論文の概要: Generalizing Logic-based Explanations for Machine Learning Classifiers via Optimization
- arxiv url: http://arxiv.org/abs/2603.01870v1
- Date: Mon, 02 Mar 2026 13:51:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.896453
- Title: Generalizing Logic-based Explanations for Machine Learning Classifiers via Optimization
- Title(参考訳): 最適化による機械学習分類器の論理的説明の一般化
- Authors: Francisco Mateus Rocha Filho, Ajalmar Rêgo da Rocha Neto, Thiago Alves Rocha,
- Abstract要約: 2段階は、Onestepと比較して、説明カバレッジ(データセット全体の平均72.60%まで)が大幅に増加し、その結果、以前の作業よりも増加した。
1ステップは、この前の作業の上に構築され、各機能とバウンドの1ステップで説明を生成し、反復的なプロセスのオーバーヘッドを排除します。
Twostepは段階的なアプローチを採り、カバレッジを改善している。実験結果は、Onestepと比較して、説明カバレッジ(データセット全体の平均で72.60%まで)が大幅に増加し、その結果、以前の作業よりも向上していることを示している。
- 参考スコア(独自算出の注目度): 3.441021278275805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models support decision-making, yet the reasons behind their predictions are opaque. Clear and reliable explanations help users make informed decisions and avoid blindly trusting model outputs. However, many existing explanation methods fail to guarantee correctness. Logic-based approaches ensure correctness but often offer overly constrained explanations, limiting coverage. Recent work addresses this by incrementally expanding explanations while maintaining correctness. This process is performed separately for each feature, adjusting both its upper and lower bounds. However, this approach faces a trade-off: smaller increments incur high computational costs, whereas larger ones may lead to explanations covering fewer instances. To overcome this, we propose two novel methods. Onestep builds upon this prior work, generating explanations in a single step for each feature and each bound, eliminating the overhead of an iterative process. \textit{Twostep} takes a gradual approach, improving coverage. Experimental results show that Twostep significantly increases explanation coverage (by up to 72.60\% on average across datasets) compared to Onestep and, consequently, to prior work.
- Abstract(参考訳): 機械学習モデルは意思決定をサポートするが、その予測の背後にある理由は不透明である。
明確で信頼性の高い説明は、ユーザがインフォームドな判断をし、モデルアウトプットを盲目的に信頼することを避けるのに役立つ。
しかし、既存の多くの説明法は正確性を保証するのに失敗している。
論理ベースのアプローチは正確性を保証するが、しばしば過度に制約された説明を提供し、カバレッジを制限する。
最近の研究は、正確性を維持しながら説明を漸進的に拡大することで、この問題に対処している。
この処理は各特徴に対して別々に行われ、上界と下界の両方を調節する。
しかし、このアプローチはトレードオフに直面している: より小さなインクリメントは高い計算コストを発生させるが、大きなインクリメントはより少ないインスタンスをカバーする説明につながる可能性がある。
そこで本研究では,2つの新しい手法を提案する。
1ステップは、この前の作業の上に構築され、各機能とバウンドの1ステップで説明を生成し、反復的なプロセスのオーバーヘッドを排除します。
\textit{Twostep} は徐々にアプローチし、カバレッジを改善している。
実験の結果、TwostepはOnestepと比較して説明カバレッジ(データセット全体の平均72.60\%まで)が大幅に増加し、その結果、以前の作業に比例した。
関連論文リスト
- GAS: Improving Discretization of Diffusion ODEs via Generalized Adversarial Solver [120.67680383929081]
ODEサンプルの単純なパラメータ化を導入し、追加のトレーニングトリックを必要とせず、既存のアプローチよりも品質が向上する。
さらに, 本来の蒸留損失と逆行訓練を組み合わせることで, 人工物が軽減され, 細部忠実度が向上する。
論文 参考訳(メタデータ) (2025-10-20T16:14:38Z) - SSPO: Self-traced Step-wise Preference Optimization for Process Supervision and Reasoning Compression [15.87106741558898]
後学習法は補助的なモデルや過度な考えのためにかなりの計算オーバーヘッドを発生させる。
本稿では,プラグインRLgableプロセス監視フレームワークであるSSPO(Self-traced Step-wise Preference Optimization)を提案する。
SSPOは、モデル自身が生成したステップワイズ優先信号を使用して、圧縮を推論するための最適化プロセスを導出する。
論文 参考訳(メタデータ) (2025-08-18T04:02:15Z) - Explain Yourself, Briefly! Self-Explaining Neural Networks with Concise Sufficient Reasons [1.9458156037869137]
出力の不可欠な部分として、予測の簡潔な理由を生成するためにモデルを訓練する。
以上の結果から,本フレームワークは,競合するポストホック法よりも,簡潔で忠実な部分集合をかなり効率的に生成することが示された。
論文 参考訳(メタデータ) (2025-02-05T17:29:12Z) - O1-Pruner: Length-Harmonizing Fine-Tuning for O1-Like Reasoning Pruning [98.3430004984531]
精度を維持しながら推論オーバーヘッドを最小限に抑えるため,Longth-Harmonizing Fine-Tuning (O1-Pruner)を提案する。
私たちのコードはもうすぐhttps://github.com/StarDewXXX/O1-Pruner.comで公開されます。
論文 参考訳(メタデータ) (2025-01-22T01:35:11Z) - S-CFE: Simple Counterfactual Explanations [22.262567049579648]
スパースデータに対する多様体対応の反実的説明を求める問題に対処する。
提案手法は,スパースかつ多様体に整列した反実的説明を効果的に生成する。
論文 参考訳(メタデータ) (2024-10-21T07:42:43Z) - Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - ReX: A Framework for Incorporating Temporal Information in Model-Agnostic Local Explanation Techniques [6.925575010275777]
機械学習モデルに時間情報を統合するフレームワークであるtextscReXを提案する。
我々は、Anchors、LIME、Kernel SHAPの3つの一般的な説明手法にアプローチをインスタンス化する。
評価の結果,本手法は説明の忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2022-09-08T13:10:29Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Causality-based Counterfactual Explanation for Classification Models [11.108866104714627]
本稿では,プロトタイプに基づく対実的説明フレームワーク(ProCE)を提案する。
ProCEは、カウンターファクトデータの特徴の根底にある因果関係を保存することができる。
さらに,提案手法を応用した多目的遺伝的アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-05-03T09:25:59Z) - Correcting Momentum with Second-order Information [50.992629498861724]
最適積に$O(epsilon)$epsilon点を求める非臨界最適化のための新しいアルゴリズムを開発した。
我々は、さまざまな大規模ディープラーニングベンチマークとアーキテクチャで結果を検証する。
論文 参考訳(メタデータ) (2021-03-04T19:01:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。