論文の概要: Learning Is a Kan Extension
- arxiv url: http://arxiv.org/abs/2502.13810v1
- Date: Wed, 19 Feb 2025 15:25:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:58:48.896866
- Title: Learning Is a Kan Extension
- Title(参考訳): 学習はカン拡張である
- Authors: Matthew Pugh, Jo Grundy, Corina Cirstea, Nick Harris,
- Abstract要約: 従来の研究は、Kan拡張の計算に効率的なアルゴリズムが存在することを示した。
本稿では,全ての誤り最小化アルゴリズムをKan拡張として提示できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Previous work has demonstrated that efficient algorithms exist for computing Kan extensions and that some Kan extensions have interesting similarities to various machine learning algorithms. This paper closes the gap by proving that all error minimisation algorithms may be presented as a Kan extension. This result provides a foundation for future work to investigate the optimisation of machine learning algorithms through their presentation as Kan extensions. A corollary of this representation of error-minimising algorithms is a presentation of error from the perspective of lossy and lossless transformations of data.
- Abstract(参考訳): 従来の研究は、カン拡張を計算するための効率的なアルゴリズムが存在すること、そしていくつかのカン拡張が様々な機械学習アルゴリズムと興味深い類似性を持っていることを証明している。
本稿では,すべての誤り最小化アルゴリズムをKan拡張として提示できることを証明し,そのギャップを埋める。
この結果から,機械学習アルゴリズムの最適化に関する今後の研究の基盤となるものとなる。
誤り最小化アルゴリズムのこの表現の要約は、データの損失および損失のない変換の観点からの誤りの表現である。
関連論文リスト
- A Mirror Descent-Based Algorithm for Corruption-Tolerant Distributed Gradient Descent [57.64826450787237]
本研究では, 分散勾配降下アルゴリズムの挙動を, 敵対的腐敗の有無で解析する方法を示す。
汚職耐性の分散最適化アルゴリズムを設計するために、(怠慢な)ミラー降下からアイデアをどう使うかを示す。
MNISTデータセットの線形回帰、サポートベクトル分類、ソフトマックス分類に基づく実験は、我々の理論的知見を裏付けるものである。
論文 参考訳(メタデータ) (2024-07-19T08:29:12Z) - Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - Predictive Coding beyond Correlations [59.47245250412873]
このようなアルゴリズムのうちの1つは、予測符号化と呼ばれ、因果推論タスクを実行することができるかを示す。
まず、予測符号化の推論過程における簡単な変化が、因果グラフを再利用したり再定義したりすることなく、介入を計算できることを示す。
論文 参考訳(メタデータ) (2023-06-27T13:57:16Z) - Provably Efficient Representation Learning with Tractable Planning in
Low-Rank POMDP [81.00800920928621]
部分的に観測可能なマルコフ決定過程(POMDP)における表現学習の研究
まず,不確実性(OFU)に直面した最大推定(MLE)と楽観性を組み合わせた復調性POMDPのアルゴリズムを提案する。
次に、このアルゴリズムをより広範な$gamma$-observable POMDPのクラスで機能させる方法を示す。
論文 参考訳(メタデータ) (2023-06-21T16:04:03Z) - Performance Evaluation and Comparison of a New Regression Algorithm [4.125187280299247]
新たに提案した回帰アルゴリズムの性能を,従来の4つの機械学習アルゴリズムと比較した。
GitHubリポジトリにソースコードを提供したので、読者は結果の複製を自由にできます。
論文 参考訳(メタデータ) (2023-06-15T13:01:16Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Kan Extensions in Data Science and Machine Learning [1.14219428942199]
カン拡大はこの概念を一般化する圏論において強力な道具である。
ラベルからクラスタリングアルゴリズムを学習する手順を導出し、実データ上でこの手順の性能を探索する。
次に、ラベル付き例のデータセットから関数への一般的なマッピングを学習するために、Kan拡張をどのように利用できるかを検討する。
論文 参考訳(メタデータ) (2022-03-17T01:31:53Z) - Improving Bayesian Network Structure Learning in the Presence of
Measurement Error [11.103936437655575]
本稿では,構造学習アルゴリズムの最後に付加的な学習フェーズとして加えることができるアルゴリズムについて述べる。
提案アルゴリズムは、4つの確立された構造学習アルゴリズムのグラフィカルスコアの改善に成功している。
論文 参考訳(メタデータ) (2020-11-19T11:27:47Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。