論文の概要: Matrix Phylogeny: Compact Spectral Fingerprints for Trap-Robust Preconditioner Selection
- arxiv url: http://arxiv.org/abs/2511.00012v1
- Date: Sun, 19 Oct 2025 02:35:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-09 16:58:40.025627
- Title: Matrix Phylogeny: Compact Spectral Fingerprints for Trap-Robust Preconditioner Selection
- Title(参考訳): マトリックスフィロジェニー:トラップロバストプレコンディショナー選択のためのコンパクトスペクトルフィンガープリント
- Authors: Jinwoo Baek,
- Abstract要約: Matrix Phylogenyは、家族レベルで行列を特徴付けるコンパクトなスペクトル指紋(CSF/ASF)を導入している。
これらの指紋は、ハッチンソンのスケッチから推定されるチェビシェフのトレースモーメントから作られた低次元の固有分解自由記述子である。
CSF/ASFはコンパクト(K=10)で高速で不変な指紋を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Matrix Phylogeny introduces compact spectral fingerprints (CSF/ASF) that characterize matrices at the family level. These fingerprints are low-dimensional, eigendecomposition-free descriptors built from Chebyshev trace moments estimated by Hutchinson sketches. A simple affine rescaling to [-1,1] makes them permutation/similarity invariant and robust to global scaling. Across synthetic and real tests, we observe phylogenetic compactness: only a few moments are needed. CSF with K=3-5 already yields perfect clustering (ARI=1.0; silhouettes ~0.89) on four synthetic families and a five-family set including BA vs ER, while ASF adapts the dimension on demand (median K*~9). On a SuiteSparse mini-benchmark (Hutchinson p~100), both CSF-H and ASF-H reach ARI=1.0. Against strong alternatives (eigenvalue histograms + Wasserstein, heat-kernel traces, WL-subtree), CSF-K=5 matches or exceeds accuracy while avoiding eigendecompositions and using far fewer features (K<=10 vs 64/9153). The descriptors are stable to noise (log-log slope ~1.03, R^2~0.993) and support a practical trap->recommend pipeline for automated preconditioner selection. In an adversarial E6+ setting with a probe-and-switch mechanism, our physics-guided recommender attains near-oracle iteration counts (p90 regret=0), whereas a Frobenius 1-NN baseline exhibits large spikes (p90~34-60). CSF/ASF deliver compact (K<=10), fast, invariant fingerprints that enable scalable, structure-aware search and recommendation over large matrix repositories. We recommend CSF with K=5 by default, and ASF when domain-specific adaptivity is desired.
- Abstract(参考訳): Matrix Phylogenyは、家族レベルで行列を特徴付けるコンパクトなスペクトル指紋(CSF/ASF)を導入している。
これらの指紋は、ハッチンソンのスケッチから推定されるチェビシェフのトレースモーメントから作られた低次元の固有分解自由記述子である。
単純なアフィンを[-1,1]に再スケーリングすることで、置換/相似性は不変であり、グローバルスケーリングに対して堅牢である。
人工的および実検定を通して、系統的コンパクト性(英語版)を観察する。
K=3-5 の CSF は 4 つの合成族と BA 対 ER を含む 5 つの族からなる完全クラスタリング (ARI=1.0; silhouettes ~0.89) を既に生成している。
SuiteSparseのミニベンチマーク(Hutchinson p~100)では、CSF-HとASF-Hの両方がARI=1.0に達する。
強い代替(固有値ヒストグラム+ワッサースタイン、熱カーネルトレース、WL-サブツリー)に対して、CSF-K=5は固有分解を回避し、より少ない特徴(K<=10 vs 64/9153)を使用する。
ディスクリプタは、ノイズ(log-log slope ~1.03, R^2~0.993)に対して安定であり、自動プレコンディショナー選択のための実用的なトラップ>推奨パイプラインをサポートする。
プローブ・アンド・スウィッチ機構を備えた対向型E6+設定では、物理誘導型推奨器は、ほぼオーラルに近い繰り返し数を達成する(p90 regret=0)が、フロベニウス1-NNベースラインは大きなスパイクを示す(p90~34-60)。
CSF/ASFはコンパクト(K<=10)で高速で不変な指紋を提供する。
ドメイン固有の適応性が必要な場合、デフォルトでは K=5 で CSF を推奨します。
関連論文リスト
- MetaCluster: Enabling Deep Compression of Kolmogorov-Arnold Network [8.780976521229741]
Kolmogorov-Arnold Networks (KAN) はスカラーウェイトを基底係数のエッジベクトルに置き換える。
精度を犠牲にすることなく高圧縮性を実現するフレームワークであるMetaClusterを提案する。
論文 参考訳(メタデータ) (2025-10-21T21:58:15Z) - Lookup multivariate Kolmogorov-Arnold Networks [5.639419519849473]
高次元線形写像は、現代のディープラーニングモデルのパラメータ数と計算コストの両方を支配している。
汎用的なドロップイン置換, ルックアップ多変数Kolmogorov-Arnold Networks (lmKANs)を導入する。
lmKANはキャパシティと推論コストのトレードオフを著しく改善します。
論文 参考訳(メタデータ) (2025-09-08T18:00:35Z) - KHRONOS: a Kernel-Based Neural Architecture for Rapid, Resource-Efficient Scientific Computation [0.9355993154058798]
我々はモデルベース、モデルフリー、モデル反転タスクのためのAIフレームワークであるKHRONOSを紹介する。
KHRONOSは、次元ごとのカーネル展開の階層的な構成で連続的に微分可能な対象場を構築する。
逆問題に対して、KHRONOSは、サンプルレイテンシあたりのサブマイクロ秒で、数回のフォワード評価で、高速で反復的なレベルセットのリカバリを容易にする。
論文 参考訳(メタデータ) (2025-05-19T16:29:07Z) - SKI to go Faster: Accelerating Toeplitz Neural Networks via Asymmetric
Kernels [69.47358238222586]
Toeplitz Neural Networks (TNN) は、印象的な結果を持つ最近のシーケンスモデルである。
我々は, O(n) 計算複雑性と O(n) 相対位置エンコーダ (RPE) 多層パーセプトロン (MLP) と減衰バイアスコールの低減を目指す。
双方向モデルの場合、これはスパースと低ランクのToeplitz行列分解を動機付ける。
論文 参考訳(メタデータ) (2023-05-15T21:25:35Z) - Factorizers for Distributed Sparse Block Codes [45.29870215671697]
分散ブロック符号(SBC)を高速かつ高精度に分解する手法を提案する。
我々の反復分解器は、しきい値に基づく非線形活性化、条件付きランダムサンプリング、および $ell_infty$-based similarity metricを導入している。
CIFAR-100, ImageNet-1K, RAVENデータセット上での4つの深層CNNアーキテクチャの実現可能性を示す。
論文 参考訳(メタデータ) (2023-03-24T12:31:48Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Adaptive Split-Fusion Transformer [90.04885335911729]
本稿では,適応重みによる畳み込みと注目の分岐を異なる方法で扱うための適応分割変換器(ASF-former)を提案する。
ImageNet-1Kのような標準ベンチマークの実験では、我々のASFフォーマーはCNN、トランスフォーマー、ハイブリッドパイロットを精度で上回っている。
論文 参考訳(メタデータ) (2022-04-26T10:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。