論文の概要: A Preliminary Agentic Framework for Matrix Deflation
- arxiv url: http://arxiv.org/abs/2601.08219v1
- Date: Tue, 06 Jan 2026 23:59:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.064367
- Title: A Preliminary Agentic Framework for Matrix Deflation
- Title(参考訳): マトリックスデフレのための予備的エージェント・フレームワーク
- Authors: Paimon Goulart, Evangelos E. Papalexakis,
- Abstract要約: 本稿では,解法がランク1を更新し,いつ停止するかを決定する,行列デフレに対するエージェント的アプローチを提案する。
Digits (8times 8$), CIFAR-10 (32times32$ grayscale), 合成 (16times16$) の行列をガウス雑音と無雑音で評価した。
全ての設定において、エージェントは競合する結果を達成し、古典的な数値アルゴリズムの代替として、完全にエージェント的、しきい値のないデフレが実現可能であることを示唆している。
- 参考スコア(独自算出の注目度): 2.6140509675507384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can a small team of agents peel a matrix apart, one rank-1 slice at a time? We propose an agentic approach to matrix deflation in which a solver Large Language Model (LLM) generates rank-1 Singular Value Decomposition (SVD) updates and a Vision Language Model (VLM) accepts or rejects each update and decides when to stop, eliminating fixed norm thresholds. Solver stability is improved through in-context learning (ICL) and types of row/column permutations that expose visually coherent structure. We evaluate on Digits ($8{\times}8$), CIFAR-10 ($32{\times}32$ grayscale), and synthetic ($16{\times}16$) matrices with and without Gaussian noise. In the synthetic noisy case, where the true construction rank $k$ is known, numerical deflation provides the noise target and our best agentic configuration differs by only $1.75$ RMSE of the target. For Digits and CIFAR-10, targets are defined by deflating until the Frobenius norm reaches $10\%$ of the original. Across all settings, our agent achieves competitive results, suggesting that fully agentic, threshold-free deflation is a viable alternative to classical numerical algorithms.
- Abstract(参考訳): エージェントの小さなチームがマトリックスを1回に1ランク1のスライスで剥がすことができますか?
本稿では,解法大言語モデル(LLM)がランク1特異値分解(SVD)更新を生成し,ビジョン言語モデル(VLM)が各更新を受理または拒否し,いつ停止するかを判断し,固定基準閾値を除去する,行列デフレに対するエージェントアプローチを提案する。
ソルバー安定性は、コンテキスト内学習(ICL)と、視覚的に一貫性のある構造を露出する行/列の置換によって改善される。
Digits (8{\times}8$), CIFAR-10 (32{\times}32$ grayscale), 合成 (16{\times}16$) の行列をガウス雑音と無雑音で評価した。
真の構成ランクが$k$である合成ノイズの場合、数値デフレはノイズターゲットを提供し、最高のエージェント構成はターゲットのわずか1.75$RMSEで異なる。
Digits と CIFAR-10 の場合、ターゲットはフロベニウスのノルムがオリジナルの 10\% に達するまで縮退することによって定義される。
全ての設定において、エージェントは競合する結果を得ることができ、古典的な数値アルゴリズムに代えて、完全にエージェント的、しきい値のないデフレが実現可能であることを示唆している。
関連論文リスト
- Spectral Sentinel: Scalable Byzantine-Robust Decentralized Federated Learning via Sketched Random Matrix Theory on Blockchain [0.0]
ビザンチンのクライアントは、不均一な(Non-IID)データの下での濃度勾配を中毒する。
本稿では,ビザンチン検出・集約フレームワークであるSpectral Sentinelを提案する。
Polygonネットワーク上でブロックチェーンを統合することで,完全なシステムを実現しています。
論文 参考訳(メタデータ) (2025-12-14T09:43:03Z) - Evolution Strategies at the Hyperscale [57.75314521465674]
本稿では,大集団にバックプロップフリーな最適化を拡大するための進化戦略(ES)アルゴリズムEGGROLLを紹介する。
ESは、微分不可能またはノイズの多い目的を処理できる強力なブラックボックス最適化手法のセットである。
EGGROLLはランダム行列を$Ain mathbbRmtimes r, Bin mathbbRntimes r$ with $rll min(m,n)$ とすることでこれらのボトルネックを克服し、低ランク行列摂動を$A Btop$とする。
論文 参考訳(メタデータ) (2025-11-20T18:56:05Z) - FedSVD: Adaptive Orthogonalization for Private Federated Learning with LoRA [68.44043212834204]
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
論文 参考訳(メタデータ) (2025-05-19T07:32:56Z) - Refined Sample Complexity for Markov Games with Independent Linear Function Approximation [49.5660193419984]
マルコフゲーム(MG)はマルチエージェント強化学習(MARL)の重要なモデルである
本稿では、WangらによるAVLPRフレームワークを改良し(2023年)、最適部分ギャップの悲観的推定を設計する。
マルチエージェントの呪いに取り組み、最適な$O(T-1/2)収束率を達成し、同時に$textpoly(A_max)$依存性を避ける最初のアルゴリズムを与える。
論文 参考訳(メタデータ) (2024-02-11T01:51:15Z) - Contextual Combinatorial Bandits with Probabilistically Triggered Arms [55.9237004478033]
確率的に誘発される腕(C$2$MAB-T)を様々な滑らかさ条件下で検討した。
トリガー変調 (TPM) 条件の下では、C$2$-UC-Tアルゴリズムを考案し、後悔すべき$tildeO(dsqrtT)$を導出する。
論文 参考訳(メタデータ) (2023-03-30T02:51:00Z) - Majorization-minimization for Sparse Nonnegative Matrix Factorization
with the $\beta$-divergence [2.3787352248749376]
他の因子(辞書行列)のノルムは不正な定式化を避けるために制御する必要があることはよく知られている。
標準のプラクティスは、辞書の列に単位ノルムを持つよう制約することであり、これは非自明な最適化問題につながる。
我々は,$ell_1$-regularization あるいはより "攻撃的" なログ規則化に対して,単純な乗法的更新をもたらすブロック・ディフレッシブ・プライマリゼーション・最小化アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-07-13T16:09:29Z) - Clustering Mixture Models in Almost-Linear Time via List-Decodable Mean
Estimation [58.24280149662003]
本稿では,データセットの大部分を敵が破壊できるリストデコタブル平均推定の問題について検討する。
我々は、ほぼ最適な統計的保証を達成するために、リストデコダブル平均推定のための新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-16T03:34:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。