論文の概要: Augmenting Intelligence: A Hybrid Framework for Scalable and Stable Explanations
- arxiv url: http://arxiv.org/abs/2512.19557v1
- Date: Mon, 22 Dec 2025 16:40:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.843414
- Title: Augmenting Intelligence: A Hybrid Framework for Scalable and Stable Explanations
- Title(参考訳): Augmenting Intelligence: スケーラブルで安定した説明のためのハイブリッドフレームワーク
- Authors: Lawrence Krukrubo, Julius Odede, Olawande Olusegun,
- Abstract要約: 説明可能なAI(XAI)への最近のアプローチは、"スケーラビリティ-安定性ジレンマ"に直面している
本稿では,このジレンマに対処するハイブリッドLRR-TEDフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current approaches to Explainable AI (XAI) face a "Scalability-Stability Dilemma." Post-hoc methods (e.g., LIME, SHAP) may scale easily but suffer from instability, while supervised explanation frameworks (e.g., TED) offer stability but require prohibitive human effort to label every training instance. This paper proposes a Hybrid LRR-TED framework that addresses this dilemma through a novel "Asymmetry of Discovery." When applied to customer churn prediction, we demonstrate that automated rule learners (GLRM) excel at identifying broad "Safety Nets" (retention patterns) but struggle to capture specific "Risk Traps" (churn triggers)-a phenomenon we term the Anna Karenina Principle of Churn. By initialising the explanation matrix with automated safety rules and augmenting it with a Pareto-optimal set of just four human-defined risk rules, our approach achieves 94.00% predictive accuracy. This configuration outperforms the full 8-rule manual expert baseline while reducing human annotation effort by 50%, proposing a shift in the paradigm for Human-in-the-Loop AI: moving experts from the role of "Rule Writers" to "Exception Handlers."
- Abstract(参考訳): 説明可能なAI(XAI)への現在のアプローチは、"スケーラビリティ-安定性のジレンマ"に直面している。
ポストホック法(例: LIME, SHAP)は容易にスケールできるが不安定である。一方、教師付き説明フレームワーク(例:TED)は安定性を提供するが、あらゆるトレーニングインスタンスにラベルを付けるのが禁止的な人的努力を必要とする。
本稿では,このジレンマに対処するハイブリッドLRR-TEDフレームワークを提案する。
顧客チャーン予測に適用した場合、自動化ルール学習者(GLRM)が幅広い「安全ネット」(保持パターン)を特定するのに優れているが、特定の「リスクトラップ」(クレーントリガー)を捉えるのに苦労していることが示される。
自動安全ルールを用いて説明行列を初期化し、わずか4つの人間定義リスクルールからなるパレート最適セットで拡張することにより、94.00%の予測精度を達成できる。
この構成は、完全な8ルールのマニュアルエキスパートベースラインよりも優れており、人間のアノテーションの労力を50%削減し、ヒューマン・イン・ザ・ループAIのパラダイムのシフトを提案している。
関連論文リスト
- Core Safety Values for Provably Corrigible Agents [2.6451153531057985]
我々は,複数段階の部分的に観察された環境において,検証可能な保証を付与し,適応性のための最初の実装可能なフレームワークを紹介した。
私たちのフレームワークは、単一の報酬を5つの*構造的に分離された*ユーティリティヘッドに置き換えます。
敵がエージェントを修正できるオープンエンド設定では、任意のポストハックエージェントが調整性に反するかどうかを判断することは不可能である。
論文 参考訳(メタデータ) (2025-07-28T16:19:25Z) - Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs [83.11815479874447]
本研究では,人間の認知における認知的分解と偏見に触発された新しいジェイルブレイク攻撃フレームワークを提案する。
我々は、悪意のあるプロンプトの複雑さと関連バイアスを減らし、認知的分解を用いて、プロンプトを再編成する。
また、従来の二分的成功または失敗のパラダイムを超越したランキングベースの有害度評価指標も導入する。
論文 参考訳(メタデータ) (2025-05-03T05:28:11Z) - Deliberative Alignment: Reasoning Enables Safer Language Models [64.60765108418062]
モデルセーフティ仕様を教える新しいパラダイムであるDeliberative Alignmentを紹介します。
このアプローチを使ってOpenAIのoシリーズモデルを整列させ、人書きのチェーンや回答を必要とせず、OpenAIの安全ポリシーに極めて正確な順守を実現しました。
論文 参考訳(メタデータ) (2024-12-20T21:00:11Z) - From Mean to Extreme: Formal Differential Privacy Bounds on the Success of Real-World Data Reconstruction Attacks [54.25638567385662]
機械学習における微分プライバシーは、しばしばメンバーシップ推論に対する保証として解釈される。
DP予算を定量的な保護に翻訳することで、データ再構築の脅威を悪化させることは、依然として困難な課題である。
本稿では、実証された"ゼロスクラッチ"攻撃のメカニズムに合わせた、最初の公式なプライバシー境界を導出することで、臨界ギャップを埋める。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Safe Explicable Planning [3.3869539907606603]
安全計画(SEP:Safe Explicable Planning)を提案する。
提案手法は,複数のモデルから派生した複数の対象の考察を一般化する。
これらの手法の望ましい理論的性質を検証するための公式な証明を提供する。
論文 参考訳(メタデータ) (2023-04-04T21:49:02Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。