論文の概要: Explaining Deep Network Classification of Matrices: A Case Study on Monotonicity
- arxiv url: http://arxiv.org/abs/2507.22570v1
- Date: Wed, 30 Jul 2025 10:55:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.163931
- Title: Explaining Deep Network Classification of Matrices: A Case Study on Monotonicity
- Title(参考訳): 行列のディープネットワーク分類を解説する:単調性に関する事例研究
- Authors: Leandro Farina, Sergey Korotov,
- Abstract要約: この研究は、ディープラーニングを用いて行列を分類するための単純で実践的な基準を発見する方法を示す。
高性能ニューラルネットワークと説明可能なAI(XAI)技術を組み合わせることで、モデルの学習戦略を人間の解釈可能なルールに抽出することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work demonstrates a methodology for using deep learning to discover simple, practical criteria for classifying matrices based on abstract algebraic properties. By combining a high-performance neural network with explainable AI (XAI) techniques, we can distill a model's learned strategy into human-interpretable rules. We apply this approach to the challenging case of monotone matrices, defined by the condition that their inverses are entrywise nonnegative. Despite their simple definition, an easy characterization in terms of the matrix elements or the derived parameters is not known. Here, we present, to the best of our knowledge, the first systematic machine-learning approach for deriving a practical criterion that distinguishes monotone from non-monotone matrices. After establishing a labelled dataset by randomly generated monotone and non-monotone matrices uniformly on $(-1,1)$, we employ deep neural network algorithms for classifying the matrices as monotone or non-monotone, using both their entries and a comprehensive set of matrix features. By saliency methods, such as integrated gradients, we identify among all features, two matrix parameters which alone provide sufficient information for the matrix classification, with $95\%$ accuracy, namely the absolute values of the two lowest-order coefficients, $c_0$ and $c_1$ of the matrix's characteristic polynomial. A data-driven study of 18,000 random $7\times7$ matrices shows that the monotone class obeys $\lvert c_{0}/c_{1}\rvert\le0.18$ with probability $>99.98\%$; because $\lvert c_{0}/c_{1}\rvert = 1/\mathrm{tr}(A^{-1})$ for monotone $A$, this is equivalent to the simple bound $\mathrm{tr}(A^{-1})\ge5.7$.
- Abstract(参考訳): この研究は、抽象代数的性質に基づいて行列を分類するための単純で実践的な基準を見つけるためにディープラーニングを使用する方法を示す。
高性能ニューラルネットワークと説明可能なAI(XAI)技術を組み合わせることで、モデルの学習戦略を人間の解釈可能なルールに抽出することができる。
このアプローチをモノトン行列の挑戦的ケースに適用し、その逆がエントリー的に非負であるという条件で定義される。
その単純な定義にもかかわらず、行列要素や導出パラメータの観点で簡単に特徴づけられることは分かっていない。
ここでは, モノトンと非モノトン行列を区別する実践的基準を導出する最初の体系的機械学習手法について述べる。
ランダムに生成したモノトーンおよび非モノトーン行列を$(-1,1)$で均一に定式化した後、行列をモノトーンまたは非モノトーンとして分類するためのディープニューラルネットワークアルゴリズムを用いて、それらのエントリと包括的行列特徴のセットを用いて、ラベル付きデータセットを構築した。
積分勾配などのサリエンシ法により、行列分類に十分な情報を提供する2つの行列パラメータ、すなわち行列の特徴多項式の2つの最低次係数の絶対値である$c_0$と$c_1$の2つの行列パラメータを同定する。
18,000のランダムな$7\times7$行列によるデータ駆動の研究は、単調類が確率$>99.98\%$; $\lvert c_{0}/c_{1}\rvert = 1/\mathrm{tr}(A^{-1})$ に従うことを示し、これは単調な有界$\mathrm{tr}(A^{-1})\ge5.7$と等価である。
関連論文リスト
- Spectral Estimation with Free Decompression [47.81955761814048]
非常に大きな(可逆な)行列のスペクトルを推定する「自由減圧」の新たな手法を提案する。
提案手法は, 極大(非可逆)行列の固有スペクトルを推定するために, 小型サブマトリクスの実験的スペクトル密度から外挿することができる。
論文 参考訳(メタデータ) (2025-06-13T17:49:25Z) - Optimal Quantization for Matrix Multiplication [35.007966885532724]
我々は、近似誤差を明確に保証したネスト格子に基づく普遍的量子化器を構築する。
我々の量子化器の実用的低複雑さバージョンは、非常に最適に近い性能を達成する。
論文 参考訳(メタデータ) (2024-10-17T17:19:48Z) - One-sided Matrix Completion from Two Observations Per Row [95.87811229292056]
行列の欠落値を$XTX$で計算する自然アルゴリズムを提案する。
合成データの一方の回収と低被覆ゲノムシークエンシングについて,本アルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2023-06-06T22:35:16Z) - An Equivalence Principle for the Spectrum of Random Inner-Product Kernel
Matrices with Polynomial Scalings [21.727073594338297]
この研究は、機械学習と統計学の応用によって動機付けられている。
スケーリングシステムにおいて,これらのランダム行列の経験的分布の弱い限界を確立する。
我々の結果は、マルテンコ・パストゥル法と半円法の間の自由加法的畳み込みとして特徴づけられる。
論文 参考訳(メタデータ) (2022-05-12T18:50:21Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Statistical limits of dictionary learning: random matrix theory and the
spectral replica method [28.54289139061295]
ベイズ最適設定における行列記述と辞書学習の複雑なモデルについて考察する。
本稿では, 統計力学とランダム行列理論, スペクトル複製法を組み合わせた新しいレプリカ法を提案する。
論文 参考訳(メタデータ) (2021-09-14T12:02:32Z) - Non-PSD Matrix Sketching with Applications to Regression and
Optimization [56.730993511802865]
非PSDおよび2乗根行列の次元削減法を提案する。
複数のダウンストリームタスクにこれらのテクニックをどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-06-16T04:07:48Z) - Algebraic and geometric structures inside the Birkhoff polytope [0.0]
Birkhoff polytope $mathcalB_d$ は位数 $d$ のすべての双確率行列からなる。
我々は、$mathcalL_d$ と $mathcalF_d$ が平面行列に対して星型であることを証明する。
論文 参考訳(メタデータ) (2021-01-27T09:51:24Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - Sketching Transformed Matrices with Applications to Natural Language
Processing [76.6222695417524]
本稿では, 変換行列を用いて, 与えられた小さな行列の積を計算するための空間効率のよいスケッチアルゴリズムを提案する。
提案手法は誤差が小さく,空間と時間の両方で効率がよいことを示す。
論文 参考訳(メタデータ) (2020-02-23T03:07:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。