論文の概要: Are Linear Regression Models White Box and Interpretable?
- arxiv url: http://arxiv.org/abs/2407.12177v1
- Date: Tue, 16 Jul 2024 21:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 19:08:36.752393
- Title: Are Linear Regression Models White Box and Interpretable?
- Title(参考訳): 線形回帰モデルはホワイトボックスと解釈可能か?
- Authors: Ahmed M Salih, Yuhe Wang,
- Abstract要約: 説明可能な人工知能(XAI)は、モデルを理解し解釈するために機械学習モデルに適用または組み込んだ一連のツールとアルゴリズムである。
線形回帰を含む単純なモデルは実装が容易であり、計算の複雑さが小さく、出力を視覚化するのも容易である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence (XAI) is a set of tools and algorithms that applied or embedded to machine learning models to understand and interpret the models. They are recommended especially for complex or advanced models including deep neural network because they are not interpretable from human point of view. On the other hand, simple models including linear regression are easy to implement, has less computational complexity and easy to visualize the output. The common notion in the literature that simple models including linear regression are considered as "white box" because they are more interpretable and easier to understand. This is based on the idea that linear regression models have several favorable outcomes including the effect of the features in the model and whether they affect positively or negatively toward model output. Moreover, uncertainty of the model can be measured or estimated using the confidence interval. However, we argue that this perception is not accurate and linear regression models are not easy to interpret neither easy to understand considering common XAI metrics and possible challenges might face. This includes linearity, local explanation, multicollinearity, covariates, normalization, uncertainty, features contribution and fairness. Consequently, we recommend the so-called simple models should be treated equally to complex models when it comes to explainability and interpretability.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、モデルを理解し解釈するために機械学習モデルに適用または組み込んだ一連のツールとアルゴリズムである。
人間の視点では解釈できないため、ディープニューラルネットワークを含む複雑なモデルや高度なモデルでは特に推奨される。
一方、線形回帰を含む単純なモデルは実装が容易であり、計算の複雑さが小さく、出力の可視化も容易である。
文学における一般的な概念は、線形回帰を含む単純なモデルはより解釈可能で理解しやすいことから「白い箱」と見なされる。
これは線形回帰モデルがモデルの特徴の影響やモデル出力に対して正あるいは負の影響を及ぼすかどうかなど、いくつかの好ましい結果をもたらすという考えに基づいている。
さらに、信頼区間を用いてモデルの不確実性を計測または推定することができる。
しかし、この認識は正確ではなく、線形回帰モデルは一般的なXAIメトリクスや潜在的な課題を考えると、容易には理解できない。
これには線形性、局所的説明、多重線型性、共変量、正規化、不確実性、特徴の寄与と公正性が含まれる。
したがって、説明可能性や解釈可能性に関して、いわゆる単純なモデルは、複雑なモデルに対して等しく扱われるべきである。
関連論文リスト
- Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - Analysis of Interpolating Regression Models and the Double Descent
Phenomenon [3.883460584034765]
ノイズの多いトレーニングデータを補間するモデルは、一般化に乏しいと一般的に推測されている。
得られた最良のモデルは過度にパラメータ化され、テストエラーはモデル順序が増加するにつれて二重降下挙動を示す。
回帰行列の最小特異値の振舞いに基づいて、テスト誤差のピーク位置と二重降下形状をモデル順序の関数として説明する。
論文 参考訳(メタデータ) (2023-04-17T09:44:33Z) - Theoretical Characterization of the Generalization Performance of
Overfitted Meta-Learning [70.52689048213398]
本稿では,ガウス的特徴を持つ線形回帰モデルの下で,過剰適合型メタラーニングの性能について検討する。
シングルタスク線形回帰には存在しない新しい興味深い性質が見つかる。
本分析は,各訓練課題における基礎的真理のノイズや多様性・変動が大きい場合には,良心過剰がより重要かつ容易に観察できることを示唆する。
論文 参考訳(メタデータ) (2023-04-09T20:36:13Z) - Constructing Effective Machine Learning Models for the Sciences: A
Multidisciplinary Perspective [77.53142165205281]
線形回帰モデルに変数間の変換や相互作用を手動で追加することで、非線形解が必ずしも改善されないことを示す。
データ駆動モデルを構築する前にこれを認識する方法や、そのような分析が本質的に解釈可能な回帰モデルへの移行にどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2022-11-21T17:48:44Z) - LocalGLMnet: interpretable deep learning for tabular data [0.0]
一般化線形モデルと類似した特徴を共用する新しいネットワークアーキテクチャを提案する。
我々のアプローチは、シェープリー値と積分勾配の精神を加法的に分解する。
論文 参考訳(メタデータ) (2021-07-23T07:38:33Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - Evading the Simplicity Bias: Training a Diverse Set of Models Discovers
Solutions with Superior OOD Generalization [93.8373619657239]
SGDで訓練されたニューラルネットワークは最近、線形予測的特徴に優先的に依存することが示された。
この単純さバイアスは、分布外堅牢性(OOD)の欠如を説明することができる。
単純さのバイアスを軽減し,ood一般化を改善できることを実証する。
論文 参考訳(メタデータ) (2021-05-12T12:12:24Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Non-parametric Models for Non-negative Functions [48.7576911714538]
同じ良い線形モデルから非負関数に対する最初のモデルを提供する。
我々は、それが表現定理を認め、凸問題に対する効率的な二重定式化を提供することを証明した。
論文 参考訳(メタデータ) (2020-07-08T07:17:28Z) - Learning a Formula of Interpretability to Learn Interpretable Formulas [1.7616042687330642]
人間の解釈可能性の非対象プロキシのMLモデルが人間のフィードバックから学習可能であることを示す。
進化的シンボリック回帰について示す。
我々のアプローチは、次世代の解釈可能な(進化的な)MLアルゴリズムの設計のための重要なステップストーンである。
論文 参考訳(メタデータ) (2020-04-23T13:59:49Z) - Lifting Interpretability-Performance Trade-off via Automated Feature
Engineering [5.802346990263708]
複雑なブラックボックス予測モデルは高い性能を持つが、解釈可能性の欠如は問題を引き起こす。
本稿では, 弾性ブラックボックスを代理モデルとして用いて, よりシンプルで不透明で, 正確かつ解釈可能なガラスボックスモデルを作成する方法を提案する。
論文 参考訳(メタデータ) (2020-02-11T09:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。