論文の概要: Pushing the Boundaries of Interpretability: Incremental Enhancements to the Explainable Boosting Machine
- arxiv url: http://arxiv.org/abs/2512.00528v1
- Date: Sat, 29 Nov 2025 15:46:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.279622
- Title: Pushing the Boundaries of Interpretability: Incremental Enhancements to the Explainable Boosting Machine
- Title(参考訳): 解釈可能性の境界を押し上げる:説明可能なブースティングマシンへのインクリメンタル拡張
- Authors: Isara Liyanage, Uthayasanker Thayasivam,
- Abstract要約: 本稿では,最新のガラス箱モデルである Explainable Boosting Machine (EBM) を改良し,高精度かつ完全な透明性を実現することを目的とする。
この研究は、堅牢で公平で透明な機械学習システムを開発するための重要なステップとして位置づけられている。
- 参考スコア(独自算出の注目度): 1.2461503242570642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread adoption of complex machine learning models in high-stakes domains has brought the "black-box" problem to the forefront of responsible AI research. This paper aims at addressing this issue by improving the Explainable Boosting Machine (EBM), a state-of-the-art glassbox model that delivers both high accuracy and complete transparency. The paper outlines three distinct enhancement methodologies: targeted hyperparameter optimization with Bayesian methods, the implementation of a custom multi-objective function for fairness for hyperparameter optimization, and a novel self-supervised pre-training pipeline for cold-start scenarios. All three methodologies are evaluated across standard benchmark datasets, including the Adult Income, Credit Card Fraud Detection, and UCI Heart Disease datasets. The analysis indicates that while the tuning process yielded marginal improvements in the primary ROC AUC metric, it led to a subtle but important shift in the model's decision-making behavior, demonstrating the value of a multi-faceted evaluation beyond a single performance score. This work is positioned as a critical step toward developing machine learning systems that are not only accurate but also robust, equitable, and transparent, meeting the growing demands of regulatory and ethical compliance.
- Abstract(参考訳): 複雑な機械学習モデルを高度な領域に広く採用することで、責任あるAI研究の最前線に「ブラックボックス」問題をもたらした。
本稿では,最新のガラス箱モデルである Explainable Boosting Machine (EBM) を改良し,高精度かつ完全な透明性を実現することにより,この問題に対処することを目的とする。
提案手法は,ベイズ方式による目標パラメータ最適化,高パラメータ最適化のためのフェアネスのためのカスタム多目的関数の実装,コールドスタートシナリオのための新しい自己教師付き事前学習パイプラインの3つの異なる拡張手法を概説する。
3つの方法論はすべて、アダルト所得、クレジットカード不正検出、UCI心臓病データセットなど、標準ベンチマークデータセットで評価されている。
この分析は、チューニングプロセスが一次ROC AUC測定値の限界改善をもたらす一方で、モデルの意思決定行動に微妙に重要な変化をもたらし、単一のパフォーマンススコア以上の多面評価値が示されることを示唆している。
この研究は、正確であるだけでなく、堅牢で、公平で透明な機械学習システムを開発するための重要なステップとして位置づけられており、規制と倫理的コンプライアンスの要求が増大している。
関連論文リスト
- o-MEGA: Optimized Methods for Explanation Generation and Analysis [1.4113638641649384]
textbftexttto-megaは、最も効果的な説明可能なAIメソッドを自動的に識別するように設計されたツールである。
自動ファクトチェックシステムにおける透明性の向上を実証する。
論文 参考訳(メタデータ) (2025-09-30T21:08:36Z) - Explicit modelling of subject dependency in BCI decoding [12.17288254938554]
Brain-Computer Interfaces (BCI) は、高いオブジェクト間の変動とラベル付きデータに悩まされる。
被験者の身元を条件とした軽量畳み込みニューラルネットワーク(CNN)を用いて、対象の依存関係を明示的にモデル化するエンド・ツー・エンドのアプローチを提案する。
論文 参考訳(メタデータ) (2025-09-27T10:51:42Z) - Rethinking Evaluation of Infrared Small Target Detection [105.59753496831739]
本稿では,画素レベルと目標レベルのパフォーマンスを取り入れたハイブリッドレベルのメトリクスを導入し,システム的エラー解析手法を提案し,クロスデータセット評価の重要性を強調した。
標準化されたベンチマークを容易にするオープンソースツールキットがリリースされた。
論文 参考訳(メタデータ) (2025-09-21T02:45:07Z) - RoHOI: Robustness Benchmark for Human-Object Interaction Detection [84.78366452133514]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、コンテキスト認識支援を可能にするロボット・ヒューマン・アシストに不可欠である。
HOI検出のための最初のベンチマークを導入し、様々な課題下でモデルのレジリエンスを評価する。
我々のベンチマークであるRoHOIは、HICO-DETとV-COCOデータセットに基づく20の汚職タイプと、新しいロバストネスにフォーカスしたメトリクスを含んでいる。
論文 参考訳(メタデータ) (2025-07-12T01:58:04Z) - Explainable Artificial Intelligence Credit Risk Assessment using Machine Learning [0.0]
本稿では,3つの最先端アンサンブル機械学習モデルと説明可能なAI(XAI)技術を組み合わせたAIによる信用リスク評価システムを提案する。
このシステムはXGBoost、LightGBM、Random Forestアルゴリズムを利用してローンデフォルトリスクの予測分析を行う。
LightGBMは、最も正確で、承認とデフォルトのレートのトレードオフが最良のビジネス最適化モデルとして登場します。
論文 参考訳(メタデータ) (2025-06-24T07:20:05Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。