論文の概要: The no-free-lunch theorems of supervised learning
- arxiv url: http://arxiv.org/abs/2202.04513v1
- Date: Wed, 9 Feb 2022 15:24:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 17:30:51.276561
- Title: The no-free-lunch theorems of supervised learning
- Title(参考訳): 教師付き学習の無自由lunch定理
- Authors: Tom F. Sterkenburg, Peter D. Gr\"unwald
- Abstract要約: no-free-lunch定理は、あらゆる可能な機械学習アルゴリズムが正当性を欠いているという懐疑的な結論を促進する。
多くの標準学習アルゴリズムはモデルに依存して理解されるべきである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The no-free-lunch theorems promote a skeptical conclusion that all possible
machine learning algorithms equally lack justification. But how could this
leave room for a learning theory, that shows that some algorithms are better
than others? Drawing parallels to the philosophy of induction, we point out
that the no-free-lunch results presuppose a conception of learning algorithms
as purely data-driven. On this conception, every algorithm must have an
inherent inductive bias, that wants justification. We argue that many standard
learning algorithms should rather be understood as model-dependent: in each
application they also require for input a model, representing a bias. Generic
algorithms themselves, they can be given a model-relative justification.
- Abstract(参考訳): no-free-lunch定理は、あらゆる可能な機械学習アルゴリズムが正当性を欠いているという懐疑的な結論を促進する。
しかし、なぜ一部のアルゴリズムは他のアルゴリズムよりも優れているという学習理論が残されているのだろうか?
帰納の哲学と平行して、学習アルゴリズムは純粋にデータ駆動であるという概念を前提としている。
この概念では、全てのアルゴリズムは、正当性を求める固有の帰納バイアスを持つ必要がある。
私たちは、多くの標準学習アルゴリズムはむしろモデルに依存したものとして理解されるべきであると主張している。
ジェネリックアルゴリズム自体は、モデル相対的な正当化を与えることができる。
関連論文リスト
- Reciprocal Learning [0.0]
我々は、機械学習アルゴリズムが1つのパラダイムの特定の例であることを示す。
本稿では,これらのアルゴリズムの一般化として,決定論の言語を用いた相互学習を紹介する。
相反学習アルゴリズムは、損失関数の比較的軽度な仮定の下で、線形速度でほぼ最適なモデルに収束する。
論文 参考訳(メタデータ) (2024-08-12T16:14:52Z) - Bregman-divergence-based Arimoto-Blahut algorithm [53.64687146666141]
本稿では,Arimoto-BlahutアルゴリズムをBregman-Diversergenceシステム上で定義された一般関数に一般化する。
本稿では,古典的および量子速度歪み理論に適用可能な凸最適化自由アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-10T06:16:24Z) - FRRI: a novel algorithm for fuzzy-rough rule induction [0.8575004906002217]
ファジィラフルール誘導(FRRI)と呼ばれる新しいルール誘導アルゴリズムを導入する。
アルゴリズムの背景と動作を説明します。
私たちのアルゴリズムは、小さなルールセットを作成しながら、より正確であることに気付きました。
論文 参考訳(メタデータ) (2024-03-07T12:34:03Z) - Using Enriched Category Theory to Construct the Nearest Neighbour
Classification Algorithm [0.0]
本稿では,強化カテゴリー理論のみを用いた機械学習アルゴリズムの構築とモチベーションを初めて行った。
データセットに関する一連の合理的な仮定は、Nearest Neighbours Algorithmの構築につながる。
論文 参考訳(メタデータ) (2023-12-27T11:20:03Z) - The No Free Lunch Theorem, Kolmogorov Complexity, and the Role of Inductive Biases in Machine Learning [80.1018596899899]
ニューラルネットワークモデルは、Kolmogorov複雑性を使って形式化された、同じ好みを共有している、と我々は主張する。
実験の結果、事前訓練された言語モデルでも、低複雑さのシーケンスを生成するのが好まれることがわかった。
これらの観察は、ますます小さな機械学習モデルで異なるように見える問題を統一する深層学習の傾向を正当化する。
論文 参考訳(メタデータ) (2023-04-11T17:22:22Z) - Adversarial Learning to Reason in an Arbitrary Logic [5.076419064097733]
定理を証明するための既存のアプローチは、特定の論理とデータセットに焦点を当てている。
本稿では,任意の論理で動作可能な強化学習によって導かれるモンテカルロシミュレーションを提案する。
論文 参考訳(メタデータ) (2022-04-06T11:25:19Z) - End-to-end Algorithm Synthesis with Recurrent Networks: Logical
Extrapolation Without Overthinking [52.05847268235338]
機械学習システムが問題を過度に考えずに論理的外挿を行う方法を示す。
本稿では,問題インスタンスの明示的なコピーをメモリに保持して,それを忘れないようにするリコールアーキテクチャを提案する。
また、モデルが数に固有の行動を学ぶのを防ぎ、無期限に繰り返される行動を学ぶためにモデルをプッシュするプログレッシブトレーニングルーチンも採用しています。
論文 参考訳(メタデータ) (2022-02-11T18:43:28Z) - Bayesian Inference Forgetting [82.6681466124663]
忘れられる権利は多くの国で合法化されているが、機械学習の施行は耐え難いコストを引き起こすだろう。
本稿では,ベイズ推論において忘れられる権利を実現するための it bayesian inference forgetting (bif) フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-16T09:52:51Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - RNNLogic: Learning Logic Rules for Reasoning on Knowledge Graphs [91.71504177786792]
本稿では知識グラフに基づく推論のための論理規則の学習について研究する。
論理規則は、予測に使用されるときに解釈可能な説明を提供するとともに、他のタスクに一般化することができる。
既存の手法は、検索スペースの検索の問題や、スパース報酬による非効率な最適化に悩まされている。
論文 参考訳(メタデータ) (2020-10-08T14:47:02Z) - What is important about the No Free Lunch theorems? [0.5874142059884521]
ノー・フリー・ランチの定理は、誘導問題に対する一様分布の下では、すべての誘導アルゴリズムが等しく作用することを証明している。
定理の重要性は、それらを用いて非一様分布を含むシナリオを分析することによって生じる。
また、教師付き学習の間に「辞書」を動機付け、ブラックボックス最適化を改善する。
論文 参考訳(メタデータ) (2020-07-21T16:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。