論文の概要: Feature-Function Curvature Analysis: A Geometric Framework for Explaining Differentiable Models
- arxiv url: http://arxiv.org/abs/2510.27207v1
- Date: Fri, 31 Oct 2025 06:07:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.999449
- Title: Feature-Function Curvature Analysis: A Geometric Framework for Explaining Differentiable Models
- Title(参考訳): 特徴関数曲率解析:微分可能なモデルを記述するための幾何学的枠組み
- Authors: Hamed Najafi, Dongsheng Luo, Jason Liu,
- Abstract要約: 本稿では,モデルの学習関数の幾何を解析するフレームワークであるFeature-Function Curvature Analysis (FFCA)を紹介する。
FFCAは、(1)影響、(2)ボラティリティ、(3)非線形性、(4)相互作用の4次元のシグネチャを生成する。
階層学習の直接的な経験的な最初の証拠を提供し、モデルが複雑な相互作用の前に単純な線形効果を一貫して学習することを示す。
- 参考スコア(独自算出の注目度): 12.066539442813836
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Explainable AI (XAI) is critical for building trust in complex machine learning models, yet mainstream attribution methods often provide an incomplete, static picture of a model's final state. By collapsing a feature's role into a single score, they are confounded by non-linearity and interactions. To address this, we introduce Feature-Function Curvature Analysis (FFCA), a novel framework that analyzes the geometry of a model's learned function. FFCA produces a 4-dimensional signature for each feature, quantifying its: (1) Impact, (2) Volatility, (3) Non-linearity, and (4) Interaction. Crucially, we extend this framework into Dynamic Archetype Analysis, which tracks the evolution of these signatures throughout the training process. This temporal view moves beyond explaining what a model learned to revealing how it learns. We provide the first direct, empirical evidence of hierarchical learning, showing that models consistently learn simple linear effects before complex interactions. Furthermore, this dynamic analysis provides novel, practical diagnostics for identifying insufficient model capacity and predicting the onset of overfitting. Our comprehensive experiments demonstrate that FFCA, through its static and dynamic components, provides the essential geometric context that transforms model explanation from simple quantification to a nuanced, trustworthy analysis of the entire learning process.
- Abstract(参考訳): 説明可能なAI(XAI)は、複雑な機械学習モデルの信頼を構築するために重要であるが、主流の属性メソッドは、モデルの最終状態の不完全で静的な画像を提供することが多い。
機能の役割をひとつのスコアにまとめることによって、非線形性と相互作用によって構築される。
これを解決するために,モデルの学習関数の幾何学を解析する新しいフレームワークであるFeature-Function Curvature Analysis (FFCA)を導入する。
FFCAは、(1)影響、(2)ボラティリティ、(3)非線形性、(4)相互作用の4次元のシグネチャを生成する。
重要なのは、このフレームワークをDynamic Archetype Analysisに拡張し、トレーニングプロセスを通してこれらのシグネチャの進化を追跡することです。
この時間的視点は、モデルがどのように学習したのかを説明し、どのように学習したかを明らかにすることを超えています。
階層学習の直接的な経験的な最初の証拠を提供し、モデルが複雑な相互作用の前に単純な線形効果を一貫して学習することを示す。
さらに、この動的解析は、不十分なモデルキャパシティを特定し、オーバーフィッティングの開始を予測するための、新しい実用的な診断を提供する。
我々の総合的な実験は、FFCAが静的かつダイナミックなコンポーネントを通して、モデルの説明を単純な量化から学習プロセス全体の微妙で信頼できる分析に変換する重要な幾何学的文脈を提供することを示した。
関連論文リスト
- A Markov Categorical Framework for Language Modeling [9.910562011343009]
自己回帰言語モデルは、優れたパフォーマンスを達成するが、内部メカニズム、訓練が表現をどのように形作り、複雑な振る舞いを可能にするかを説明する統一理論は、いまだ解明されていない。
本稿では,マルコフカテゴリーの言語を用いた情報処理段階の合成として,単一ステップ生成過程をモデル化する新しい分析フレームワークを提案する。
この研究は、モデルを通して情報がどのように流れ、訓練対象が内部形状をどう形成するかを理解するための強力な新しいレンズを提供する。
論文 参考訳(メタデータ) (2025-07-25T13:14:03Z) - No Equations Needed: Learning System Dynamics Without Relying on Closed-Form ODEs [56.78271181959529]
本稿では,従来の2段階モデリングプロセスから離れることで,低次元力学系をモデル化する概念シフトを提案する。
最初に閉形式方程式を発見して解析する代わりに、我々のアプローチ、直接意味モデリングは力学系の意味表現を予測する。
私たちのアプローチは、モデリングパイプラインを単純化するだけでなく、結果のモデルの透明性と柔軟性も向上します。
論文 参考訳(メタデータ) (2025-01-30T18:36:48Z) - Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Physically Analyzable AI-Based Nonlinear Platoon Dynamics Modeling During Traffic Oscillation: A Koopman Approach [4.379212829795889]
物理的アナライザビリティを同時に達成しつつ、高精度なモデリング手法が不可欠である。
本稿では,AIのパワーを利用した未知の非線形プラトン力学をモデル化するためのAIベースのクープマン手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T19:35:21Z) - Three Mechanisms of Feature Learning in a Linear Network [0.34530027457862006]
有限幅の1次元データを用いた一層線形ネットワークの学習力学の正確な解を提案する。
特徴学習システムに特有の3つの新しいプロトタイプメカニズムを同定する。
実世界のタスクを扱うディープ非線形ネットワークにおいても,これらのメカニズムが現れることを示す実証的な証拠が得られた。
論文 参考訳(メタデータ) (2024-01-13T14:21:46Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Temporal Relevance Analysis for Video Action Models [70.39411261685963]
まず,CNNに基づく行動モデルにより捉えたフレーム間の時間的関係を定量化する手法を提案する。
次に、時間的モデリングがどのように影響を受けるかをよりよく理解するために、包括的な実験と詳細な分析を行います。
論文 参考訳(メタデータ) (2022-04-25T19:06:48Z) - Learning continuous models for continuous physics [94.42705784823997]
本研究では,科学技術応用のための機械学習モデルを検証する数値解析理論に基づくテストを開発する。
本研究は,従来のMLトレーニング/テスト手法と一体化して,科学・工学分野におけるモデルの検証を行う方法である。
論文 参考訳(メタデータ) (2022-02-17T07:56:46Z) - Structured learning of rigid-body dynamics: A survey and unified view
from a robotics perspective [5.597839822252915]
剛体力学とデータ駆動モデリング技術を組み合わせた回帰モデルについて検討した。
我々は、ニューラルネットワークやガウス過程などのデータ駆動回帰モデルと分析モデル先行モデルの組み合わせに関する統一的な見解を提供する。
論文 参考訳(メタデータ) (2020-12-11T11:26:48Z) - Learning Bijective Feature Maps for Linear ICA [73.85904548374575]
画像データに適した既存の確率的深層生成モデル (DGM) は, 非線形ICAタスクでは不十分であることを示す。
そこで本研究では,2次元特徴写像と線形ICAモデルを組み合わせることで,高次元データに対する解釈可能な潜在構造を学習するDGMを提案する。
画像上のフローベースモデルや線形ICA、変分オートエンコーダよりも、高速に収束し、訓練が容易なモデルを作成し、教師なしの潜在因子発見を実現する。
論文 参考訳(メタデータ) (2020-02-18T17:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。