論文の概要: Deep Learning Opacity in Scientific Discovery
- arxiv url: http://arxiv.org/abs/2206.00520v2
- Date: Fri, 26 Aug 2022 12:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:25:16.929255
- Title: Deep Learning Opacity in Scientific Discovery
- Title(参考訳): 科学的発見と深層学習
- Authors: Eamon Duede
- Abstract要約: 哲学的悲観主義と科学的楽観主義の切り離しは、AIが科学で実際にどのように使われているかを調べるのに失敗している、と私は主張する。
AIによるブレークスルーの正当化を理解するために、哲学者はより広範な発見プロセスの一環として、ディープラーニングが果たす役割を検証しなければなりません。
- 参考スコア(独自算出の注目度): 0.15229257192293197
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Philosophers have recently focused on critical, epistemological challenges
that arise from the opacity of deep neural networks. One might conclude from
this literature that doing good science with opaque models is exceptionally
challenging, if not impossible. Yet, this is hard to square with the recent
boom in optimism for AI in science alongside a flood of recent scientific
breakthroughs driven by AI methods. In this paper, I argue that the disconnect
between philosophical pessimism and scientific optimism is driven by a failure
to examine how AI is actually used in science. I show that, in order to
understand the epistemic justification for AI-powered breakthroughs,
philosophers must examine the role played by deep learning as part of a wider
process of discovery. The philosophical distinction between the 'context of
discovery' and the 'context of justification' is helpful in this regard. I
demonstrate the importance of attending to this distinction with two cases
drawn from the scientific literature, and show that epistemic opacity need not
diminish AI's capacity to lead scientists to significant and justifiable
breakthroughs.
- Abstract(参考訳): 哲学者は最近、ディープニューラルネットワークの不透明さから生じる批判的、認識論的課題に焦点を当てている。
この文献から、不透明なモデルで良い科学を行うのは、不可能ではないにせよ、非常に難しい、と結論付けることができる。
しかし、これは、AIメソッドによって駆動される最近の科学的ブレークスルーの洪水と共に、科学におけるAIの楽観主義の最近のブームに匹敵するのは難しい。
本稿では、哲学的悲観主義と科学的楽観主義の切り離しは、AIが科学で実際にどのように使われているかを調べるのに失敗していると論じる。
AIを利用したブレークスルーの認識的正当化を理解するために、哲学者はより広範な発見プロセスの一環として、ディープラーニングが果たす役割を検証しなければならない。
この点では「発見の言葉」と「正当化の言葉」の哲学的区別が有用である。
私は、科学文献から引用された2つの事例でこの区別に従うことの重要性を実証し、認識論的不透明性が科学者を重要かつ正当なブレークスルーへと導くためにaiの能力を減らす必要はないことを示した。
関連論文リスト
- AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Advancing Perception in Artificial Intelligence through Principles of
Cognitive Science [6.637438611344584]
我々は、周囲の信号を入力として取り、それを処理して環境を理解する、知覚の認知機能に焦点を当てる。
我々は、認知科学にインスパイアされたAIシステムを構築するために、AIに一連の方法を提案する。
論文 参考訳(メタデータ) (2023-10-13T01:21:55Z) - DeepSpeed4Science Initiative: Enabling Large-Scale Scientific Discovery
through Sophisticated AI System Technologies [116.09762105379241]
DeepSpeed4Scienceは、AIシステム技術革新を通じてユニークな機能を構築することを目指している。
我々は、構造生物学研究における2つの重要なシステム課題に対処するために、DeepSpeed4Scienceで行った初期の進歩を紹介した。
論文 参考訳(メタデータ) (2023-10-06T22:05:15Z) - Artificial Intelligence for Science in Quantum, Atomistic, and Continuum
Systems [245.1050780515017]
科学のためのAI(AI4Science)として知られる新しい研究領域
領域は、物理世界(波動関数と電子密度)、原子(分子、タンパク質、物質、相互作用)、マクロ(流体、気候、地下)まで理解することを目的としている。
主要な課題は、物理第一原理、特に対称性を深層学習法によって自然システムで捉える方法である。
論文 参考訳(メタデータ) (2023-07-17T12:14:14Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - Learning from learning machines: a new generation of AI technology to
meet the needs of science [59.261050918992325]
科学的な発見のためのAIの有用性を高めるための新たな機会と課題を概説する。
産業におけるAIの目標と科学におけるAIの目標の区別は、データ内のパターンを識別することと、データから世界のパターンを発見することとの間に緊張を生じさせる。
論文 参考訳(メタデータ) (2021-11-27T00:55:21Z) - Limitations of Deep Neural Networks: a discussion of G. Marcus' critical
appraisal of deep learning [0.0]
ディープニューラルネットワークは、医療画像、半自律車、電子商取引、遺伝学研究、音声認識、粒子物理学、実験芸術、経済予測、環境科学、工業製造、そしてほぼあらゆる分野の様々な応用において、非常に大きな成果を上げてきた。
本研究は、深層ニューラルネットワークの限界のいくつかを調査し、将来の研究のための潜在的な経路を指し示し、多くの研究者が保持するメタフィジカルな誤解を解消することを目的としている。
論文 参考訳(メタデータ) (2020-12-22T12:11:19Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Off-the-shelf deep learning is not enough: parsimony, Bayes and
causality [0.8602553195689513]
材料科学における深層学習の実現に向けた機会と障害について論じる。
私たちは、ディープラーニングとAIは、因果関係が知られている分野に革命をもたらすのに十分な位置にあると論じています。
論文 参考訳(メタデータ) (2020-05-04T15:16:30Z) - Adversarial Examples and the Deeper Riddle of Induction: The Need for a
Theory of Artifacts in Deep Learning [0.0]
私は、敵対的な例が哲学や多様な科学における議論の火花となると論じます。
私は、敵対的な例が哲学や多様な科学における議論の火花となると論じます。
論文 参考訳(メタデータ) (2020-03-20T16:24:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。