論文の概要: Interpretability-by-Design with Accurate Locally Additive Models and Conditional Feature Effects
- arxiv url: http://arxiv.org/abs/2602.16503v1
- Date: Wed, 18 Feb 2026 14:45:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.621392
- Title: Interpretability-by-Design with Accurate Locally Additive Models and Conditional Feature Effects
- Title(参考訳): 高精度局所付加モデルによる解釈可能性設計と条件付き特徴量の影響
- Authors: Vasilis Gkolemis, Loukas Kavouras, Dimitrios Kyriakopoulos, Konstantinos Tsopelas, Dimitrios Rontogiannis, Giuseppe Casalicchio, Theodore Dalamagas, Christos Diou,
- Abstract要約: emphConditionally Additive Local Models (CALM)を提案する。
CALMs balance interpretability of GAMs with the accuracy of GA$2$Ms。
実験では、CALMはGAMを一貫して上回り、GA$2$Msに匹敵する精度を達成する。
- 参考スコア(独自算出の注目度): 6.312016976793988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized additive models (GAMs) offer interpretability through independent univariate feature effects but underfit when interactions are present in data. GA$^2$Ms add selected pairwise interactions which improves accuracy, but sacrifices interpretability and limits model auditing. We propose \emph{Conditionally Additive Local Models} (CALMs), a new model class, that balances the interpretability of GAMs with the accuracy of GA$^2$Ms. CALMs allow multiple univariate shape functions per feature, each active in different regions of the input space. These regions are defined independently for each feature as simple logical conditions (thresholds) on the features it interacts with. As a result, effects remain locally additive while varying across subregions to capture interactions. We further propose a principled distillation-based training pipeline that identifies homogeneous regions with limited interactions and fits interpretable shape functions via region-aware backfitting. Experiments on diverse classification and regression tasks show that CALMs consistently outperform GAMs and achieve accuracy comparable with GA$^2$Ms. Overall, CALMs offer a compelling trade-off between predictive accuracy and interpretability.
- Abstract(参考訳): 一般化加法モデル(GAM)は、独立な単変量特徴効果を通じて解釈可能性を提供するが、データに相互作用が存在する場合には不適合である。
GA$^2$Msは、精度を向上させるために選択されたペアワイズを付加するが、解釈可能性とモデル監査の制限を犠牲にする。
本稿では,GA$2$Msの精度とGAの解釈可能性のバランスをとる新しいモデルクラスである \emph{Conditionally Additive Local Models} (CALMs) を提案する。
CALMは、各特徴ごとに複数の単変量形状関数を許容し、それぞれ入力空間の異なる領域で活性する。
これらの領域は、各機能に対して、それらが相互作用する機能に関する単純な論理的条件(閾値)として独立に定義される。
その結果、効果は局所的な添加物のままであり、相互作用を捉えるためにサブリージョンによって異なる。
さらに,同種領域を限定的な相互作用で識別し,領域認識型バックフィッティングによる解釈可能な形状関数に適合する蒸留法に基づく訓練パイプラインを提案する。
多様な分類および回帰タスクの実験により、CALMはGA$^2$Msに匹敵する精度でGAMを上回っている。
全体として、CALMは予測精度と解釈可能性の間の魅力的なトレードオフを提供する。
関連論文リスト
- Multiplicative-Additive Constrained Models:Toward Joint Visualization of Interactive and Independent Effects [0.0]
解釈可能性(英: Interpretability)は、医療などの高度な分野に機械学習を適用する際の考慮事項の1つである。
GAM(Generalized Additive Models)は、形状関数を可視化することで解釈可能性を高める。
本稿では,CESRを加法部で拡張し,その対話的・独立的な項の相互に絡み合う係数を解消する乗法・適応的制約モデル(MACMs)を提案する。
論文 参考訳(メタデータ) (2025-09-26T06:08:31Z) - Decorrelated feature importance from local sample weighting [0.0]
局所的なサンプル重み付け(losaw)は、多くの機械学習アルゴリズムに統合して、特徴重要度(FI)スコアを改善することができる。
決定木に基づくML手法やニューラルネットワークのミニバッチトレーニングにロソーをどのように組み込むかを示す。
論文 参考訳(メタデータ) (2025-08-08T14:11:18Z) - Unified modality separation: A vision-language framework for unsupervised domain adaptation [60.8391821117794]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインでトレーニングされたモデルが新しいラベル付きドメインを扱うことを可能にする。
本稿では,モダリティ固有成分とモダリティ不変成分の両方に対応可能な統一モダリティ分離フレームワークを提案する。
提案手法は,9倍の計算効率で最大9%の性能向上を実現している。
論文 参考訳(メタデータ) (2025-08-07T02:51:10Z) - GrAInS: Gradient-based Attribution for Inference-Time Steering of LLMs and VLMs [56.93583799109029]
GrAInSは推論時ステアリングのアプローチで、言語のみのモデルと視覚言語の両方のモデルとタスクで動作する。
推論中、GrAInSはトークンレベルの属性信号によって誘導されるトランスフォーマー層で隠されたアクティベーションを隠蔽し、アクティベーションを正規化し、表現スケールを保存する。
微調整と既存のステアリングベースラインの両方を一貫して上回る。
論文 参考訳(メタデータ) (2025-07-24T02:34:13Z) - Generalized Sparse Additive Model with Unknown Link Function [19.807823040041896]
我々は、未知リンク関数(GSAMUL)を持つ一般化スパース加法モデルという新しいスパース加法モデルを提案する。
成分関数はB-スプラインベースで推定され、未知リンク関数は多層パーセプトロン(MLP)ネットワークで推定される。
応用において、合成および実世界のデータセットの実験的評価は、提案手法の有効性を一貫して検証する。
論文 参考訳(メタデータ) (2024-10-08T13:13:58Z) - Delta-AI: Local objectives for amortized inference in sparse graphical models [64.5938437823851]
スパース確率的グラフィカルモデル(PGM)における補正推論のための新しいアルゴリズムを提案する。
提案手法は, PGMにおける変数のサンプリングをエージェントが行う一連の行動とみなす場合, エージェントのポリシー学習目的において, PGMの疎結合が局所的な信用割当を可能にするという観察に基づいている。
合成PGMからサンプリングし、スパース因子構造を持つ潜在変数モデルを訓練するための$Delta$-AIの有効性について説明する。
論文 参考訳(メタデータ) (2023-10-03T20:37:03Z) - Regionally Additive Models: Explainable-by-design models minimizing
feature interactions [8.118449359076438]
GAM(Generalized Additive Models)は、様々なアプリケーションで説明可能な設計モデルとして広く使われている。
出力が複数の機能に同時に依存するML問題では、GAMは基礎となる関数の相互作用項をキャプチャできない。
提案する領域付加モデル (RAM) は, 説明可能な設計モデルの新しいクラスである。
論文 参考訳(メタデータ) (2023-09-21T16:16:22Z) - Instrumental Variable-Driven Domain Generalization with Unobserved
Confounders [53.735614014067394]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインから、目に見えないターゲットドメインをうまく一般化できるモデルを学ぶことを目的としている。
観測不能な共同創設者のバイアスを2段階学習で除去し,インストゥルメンタル変数駆動型DG法(IV-DG)を提案する。
第1段階では、あるドメインの入力特徴の条件分布を他のドメインの入力特徴の条件分布として学習する。
第2段階では,ラベルと学習条件分布の関係を推定する。
論文 参考訳(メタデータ) (2021-10-04T13:32:57Z) - Removing Spurious Features can Hurt Accuracy and Affect Groups
Disproportionately [83.68135652247496]
自然な修正は、モデルからスプリアスな特徴を取り除くことである。
誘導バイアスによる突発的特徴の除去は精度を低下させる可能性が示唆された。
また,ロバストな自己学習によって,全体的な正確性に影響を与えずにスプリアスな特徴を除去できることを示した。
論文 参考訳(メタデータ) (2020-12-07T23:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。