論文の概要: Algebraic Machine Learning: Learning as computing an algebraic decomposition of a task
- arxiv url: http://arxiv.org/abs/2502.19944v1
- Date: Thu, 27 Feb 2025 10:13:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:54:09.996896
- Title: Algebraic Machine Learning: Learning as computing an algebraic decomposition of a task
- Title(参考訳): 代数的機械学習:タスクの代数的分解を計算として学ぶ
- Authors: Fernando Martin-Maroto, Nabil Abderrahaman, David Mendez, Gonzalo G. de Polavieja,
- Abstract要約: 本稿では,学習の分析を容易にする数学を用いた抽象代数に基づく代替基盤を提案する。
このアプローチでは、タスクとデータのゴールは代数の公理として符号化され、これらの公理とそれらの論理結果のみが成立するモデルが得られる。
我々は、MNIST、FashionMNIST、CIFAR-10、医療画像などの標準データセット上でこの新しい学習原則を検証し、最適化された多層パーセプトロンに匹敵する性能を達成する。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License:
- Abstract: Statistics and Optimization are foundational to modern Machine Learning. Here, we propose an alternative foundation based on Abstract Algebra, with mathematics that facilitates the analysis of learning. In this approach, the goal of the task and the data are encoded as axioms of an algebra, and a model is obtained where only these axioms and their logical consequences hold. Although this is not a generalizing model, we show that selecting specific subsets of its breakdown into algebraic atoms obtained via subdirect decomposition gives a model that generalizes. We validate this new learning principle on standard datasets such as MNIST, FashionMNIST, CIFAR-10, and medical images, achieving performance comparable to optimized multilayer perceptrons. Beyond data-driven tasks, the new learning principle extends to formal problems, such as finding Hamiltonian cycles from their specifications and without relying on search. This algebraic foundation offers a fresh perspective on machine intelligence, featuring direct learning from training data without the need for validation dataset, scaling through model additivity, and asymptotic convergence to the underlying rule in the data.
- Abstract(参考訳): 統計学と最適化は現代の機械学習の基礎となっている。
本稿では,学習の分析を容易にする数学を用いた抽象代数に基づく代替基盤を提案する。
このアプローチでは、タスクとデータのゴールは代数の公理として符号化され、これらの公理とそれらの論理結果のみが成立するモデルが得られる。
これは一般化モデルではないが、その分解の特定の部分集合を部分間接分解によって得られる代数的原子に選択すると一般化するモデルが得られることを示す。
我々は、MNIST、FashionMNIST、CIFAR-10、医療画像などの標準データセット上で、この新しい学習原理を検証し、最適化された多層パーセプトロンに匹敵する性能を達成する。
データ駆動タスク以外にも、新しい学習原則は、仕様からハミルトンサイクルを見つけ出し、検索に頼ることなく、形式的な問題にまで拡張されている。
この代数的基盤は、マシンインテリジェンスに対する新鮮な視点を提供し、検証データセットを必要とせずにトレーニングデータから直接学習し、モデルの加算率をスケールし、データの基本ルールに漸近的な収束を特徴とする。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Surprisal Driven $k$-NN for Robust and Interpretable Nonparametric
Learning [1.4293924404819704]
我々は情報理論の観点から、隣り合う従来のアルゴリズムに新たな光を当てた。
単一モデルを用いた分類,回帰,密度推定,異常検出などのタスクに対する頑健で解釈可能なフレームワークを提案する。
我々の研究は、分類と異常検出における最先端の成果を達成することによって、アーキテクチャの汎用性を示す。
論文 参考訳(メタデータ) (2023-11-17T00:35:38Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Generating Elementary Integrable Expressions [0.0]
本稿では,記号積分にRichアルゴリズムを用いることで,基本可積分表現のデータセットを作成する方法について述べる。
この方法で生成されたデータによって、以前の手法で見つかったいくつかの欠陥が軽減されることを示す。
論文 参考訳(メタデータ) (2023-06-27T15:48:40Z) - Rank-Minimizing and Structured Model Inference [7.067529286680843]
この研究は、構造の形にエンコードされた物理的な洞察を持つデータからモデルを推論する手法を導入する。
提案手法は最小ランク解の方程式を数値的に解き、低次モデルを得る。
数値実験により、構造保存とランクの組み合わせは、同等の予測品質のモデルよりも桁違いに低い自由度を持つ正確なモデルをもたらすことが示された。
論文 参考訳(メタデータ) (2023-02-19T09:46:35Z) - Context-Aware Ensemble Learning for Time Series [11.716677452529114]
本稿では,ベースモデルの特徴ベクトルの結合である特徴のスーパーセットを用いて,ベースモデル予測を効果的に組み合わせたメタ学習手法を提案する。
我々のモデルは、ベースモデルの予測を機械学習アルゴリズムの入力として使用するのではなく、問題の状態に基づいて各時点における最良の組み合わせを選択する。
論文 参考訳(メタデータ) (2022-11-30T10:36:13Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Learning Time-Varying Graphs from Online Data [39.21234914444073]
本研究では,オンラインデータから時間変化グラフを学習するアルゴリズムフレームワークを提案する。
モデルに依存しない、すなわち抽象的な定式化において理論的に解析することができる。
フレームワークを3つのよく知られたグラフ学習モデル、すなわちガウス図形モデル(GGM)、構造方程式モデル(SEM)、滑らか性に基づくモデル(SBM)に特化する。
論文 参考訳(メタデータ) (2021-10-21T09:46:44Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。