論文の概要: A Falsificationist Account of Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2205.01421v1
- Date: Tue, 3 May 2022 11:19:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 19:45:36.985672
- Title: A Falsificationist Account of Artificial Neural Networks
- Title(参考訳): ニューラルネットワークのFalsificationistによる考察
- Authors: Oliver Buchholz and Eric Raidl
- Abstract要約: 我々は、ファルシフィケーションの考え方が機械学習の方法論の中心であると主張している。
機械学習は統計学と計算機科学の交差点で機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning operates at the intersection of statistics and computer
science. This raises the question as to its underlying methodology. While much
emphasis has been put on the close link between the process of learning from
data and induction, the falsificationist component of machine learning has
received minor attention. In this paper, we argue that the idea of
falsification is central to the methodology of machine learning. It is commonly
thought that machine learning algorithms infer general prediction rules from
past observations. This is akin to a statistical procedure by which estimates
are obtained from a sample of data. But machine learning algorithms can also be
described as choosing one prediction rule from an entire class of functions. In
particular, the algorithm that determines the weights of an artificial neural
network operates by empirical risk minimization and rejects prediction rules
that lack empirical adequacy. It also exhibits a behavior of implicit
regularization that pushes hypothesis choice toward simpler prediction rules.
We argue that taking both aspects together gives rise to a falsificationist
account of artificial neural networks.
- Abstract(参考訳): 機械学習は統計学と計算機科学の交点で動作する。
これにより、基礎となる方法論に関する疑問が持ち上がる。
データから学習するプロセスと帰納的学習の密接な結びつきが強調されているが、機械学習のファルシフィズム的なコンポーネントは、あまり注目されていない。
本稿では,ファリシフィケーションの考え方が機械学習の方法論の中心であることを論じる。
機械学習アルゴリズムは、過去の観測から一般的な予測規則を推論すると考えられている。
これは、データのサンプルから推定値を取得する統計的手順に類似している。
しかし、機械学習アルゴリズムは、関数のクラス全体から1つの予測ルールを選択することもできる。
特に、ニューラルネットワークの重みを決定するアルゴリズムは、経験的リスク最小化によって動作し、経験的妥当性に欠ける予測ルールを拒否する。
また、暗黙の規則化の振る舞いを示し、仮説の選択を単純な予測規則へと押し上げる。
我々は、両方の側面をまとめることで、人工ニューラルネットワークのファルシフィズム的説明が生まれると論じている。
関連論文リスト
- Instance-wise Linearization of Neural Network for Model Interpretation [13.583425552511704]
この課題は、ニューラルネットワークの非線形動作に潜むことができる。
ニューラルネットワークモデルでは、非線形な振る舞いはモデルの非線形なアクティベーションユニットによって引き起こされることが多い。
本稿では,ニューラルネットワーク予測のフォワード計算過程を再構成するインスタンスワイズ線形化手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T02:07:39Z) - Utility-Probability Duality of Neural Networks [4.871730595406078]
本稿では,ディープラーニングにおける標準教師あり学習手順に対するユーティリティに基づく代替的説明を提案する。
基本的な考え方は、学習したニューラルネットワークを確率モデルではなく、順序付きユーティリティ関数として解釈することである。
ソフトマックス出力を持つ全てのニューラルネットワークに対して、最大推定値のSGD学習ダイナミクスを反復過程と見なすことができる。
論文 参考訳(メタデータ) (2023-05-24T08:09:07Z) - Algorithmic failure as a humanities methodology: machine learning's
mispredictions identify rich cases for qualitative analysis [0.0]
私は単純な機械学習アルゴリズムを訓練し、架空のキャラクターの情報だけを使ってアクションがアクティブか受動的かを予測する。
この結果は、失敗予測は質的分析のリッチケースを特定するために生産的に使用できるという、Munkらの理論を支持する。
さらに、この手法がどのような種類のデータに役立ち、どの種類の機械学習が最も生成性が高いかを理解するために、さらなる研究が必要である。
論文 参考訳(メタデータ) (2023-05-19T13:24:32Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Multiclass classification utilising an estimated algorithmic probability
prior [0.5156484100374058]
我々は,アルゴリズム情報理論,特にアルゴリズム的確率が,機械学習タスクにどのように役立つかを研究する。
この研究は、アルゴリズムの確率が具体的な実世界の機械学習問題にどのように役立つかを示す最初の1つである。
論文 参考訳(メタデータ) (2022-12-14T07:50:12Z) - Refining neural network predictions using background knowledge [68.35246878394702]
学習システムにおける論理的背景知識を用いて,ラベル付きトレーニングデータの不足を補うことができることを示す。
そこで本研究では,修正された予測を元の予測に近い精度で検出する微分可能精細関数を提案する。
このアルゴリズムは、複雑なSATの公式に対して、非常に少ない繰り返しで最適に洗練され、勾配降下ができない解がしばしば見つかる。
論文 参考訳(メタデータ) (2022-06-10T10:17:59Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。