論文の概要: Induction, Popper, and machine learning
- arxiv url: http://arxiv.org/abs/2110.00840v1
- Date: Sat, 2 Oct 2021 16:52:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:22:50.998143
- Title: Induction, Popper, and machine learning
- Title(参考訳): 誘導、ポッパー、および機械学習
- Authors: Bruce Nielson, Daniel C. Elton
- Abstract要約: 現在使われているほとんどのAIアルゴリズムは、進化的試行と、ソリューション空間を探索するエラープロセスを用いて理解することができる。
普遍的なダーウィンのフレームワークは、AIシステムを理解するためのより良い基盤を提供する、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Francis Bacon popularized the idea that science is based on a process of
induction by which repeated observations are, in some unspecified way,
generalized to theories based on the assumption that the future resembles the
past. This idea was criticized by Hume and others as untenable leading to the
famous problem of induction. It wasn't until the work of Karl Popper that this
problem was solved, by demonstrating that induction is not the basis for
science and that the development of scientific knowledge is instead based on
the same principles as biological evolution. Today, machine learning is also
taught as being rooted in induction from big data. Solomonoff induction
implemented in an idealized Bayesian agent (Hutter's AIXI) is widely discussed
and touted as a framework for understanding AI algorithms, even though
real-world attempts to implement something like AIXI immediately encounter
fatal problems. In this paper, we contrast frameworks based on induction with
Donald T. Campbell's universal Darwinism. We show that most AI algorithms in
use today can be understood as using an evolutionary trial and error process
searching over a solution space. In this work we argue that a universal
Darwinian framework provides a better foundation for understanding AI systems.
Moreover, at a more meta level the process of development of all AI algorithms
can be understood under the framework of universal Darwinism.
- Abstract(参考訳): フランシス・ベーコン(francis bacon)は、科学は、ある特定の方法で、未来が過去に似ているという仮定に基づいて理論に一般化された帰納的観察の過程に基づいているという考えを広めた。
この考えはヒュームらによって、誘導の有名な問題に繋がる耐え難いと批判された。
この問題が解決されたのはカール・ポパーの仕事で、帰納法が科学の基盤ではなく、科学知識の発展は生物学の進化と同じ原理に基づいていることを証明した。
今日では、機械学習はビッグデータからの誘導に根ざしていると教えられている。
理想化されたベイズエージェント(HutterのAIXI)で実装されたソロモノフ誘導は、AIアルゴリズムを理解するためのフレームワークとして広く議論され、称賛されている。
本稿ではドナルド・t・キャンベルの普遍ダーウィン主義と帰納法に基づく枠組みを対比する。
現在使われているほとんどのAIアルゴリズムは、進化的試行と、ソリューション空間を探索するエラープロセスを用いて理解することができる。
この研究では、普遍的なダーウィンのフレームワークがAIシステムを理解するためのより良い基盤を提供すると主張している。
さらに、よりメタレベルで、すべてのaiアルゴリズムの開発プロセスは、普遍ダーウィン主義の枠組みの下で理解することができる。
関連論文リスト
- Problems in AI, their roots in philosophy, and implications for science and society [0.0]
AI技術とその利用の哲学的側面にもっと注意を払わなければならない。
この欠陥は一般的に、知識の成長に関する哲学的誤解と結びついていると論じられている。
論文 参考訳(メタデータ) (2024-07-22T14:38:54Z) - A Triumvirate of AI Driven Theoretical Discovery [0.0]
近い将来、AIに取って代わられる危険はないが、人間の専門知識とAIアルゴリズムのハイブリッドは、理論的な発見の不可欠な部分になる、と我々は主張する。
論文 参考訳(メタデータ) (2024-05-30T11:57:00Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Neurocompositional computing: From the Central Paradox of Cognition to a
new generation of AI systems [120.297940190903]
AIの最近の進歩は、限られた形態のニューロコンフォメーションコンピューティングの使用によってもたらされている。
ニューロコンポジションコンピューティングの新しい形式は、より堅牢で正確で理解しやすいAIシステムを生み出します。
論文 参考訳(メタデータ) (2022-05-02T18:00:10Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Applying Deutsch's concept of good explanations to artificial
intelligence and neuroscience -- an initial exploration [0.0]
深層学習におけるドイツの難しい原則と、より形式化された原則とどのように関連しているかを調査します。
私たちは、人間の脳を見ることで、知能でどのように難しい説明が果たす役割を見ます。
論文 参考訳(メタデータ) (2020-12-16T23:23:22Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Explaining AI as an Exploratory Process: The Peircean Abduction Model [0.2676349883103404]
帰納的推論は様々な方法で定義されてきた。
帰納的推論の実装の課題と説明プロセスの自動化の課題は密接に関連している。
この分析は、XAI研究者がすでに行っていることを理解するための理論的枠組みを提供する。
論文 参考訳(メタデータ) (2020-09-30T17:10:37Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。