論文の概要: Evolution and The Knightian Blindspot of Machine Learning
- arxiv url: http://arxiv.org/abs/2501.13075v1
- Date: Wed, 22 Jan 2025 18:38:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:29:59.376938
- Title: Evolution and The Knightian Blindspot of Machine Learning
- Title(参考訳): 機械学習の進化とナイト派盲点
- Authors: Joel Lehman, Elliot Meyerson, Tarek El-Gaaly, Kenneth O. Stanley, Tarin Ziyaee,
- Abstract要約: この論文は、機械学習(ML)が一般知能の重要な側面、すなわちオープンな世界における質的に未知の未来に対する堅牢性を見落としていると主張している。
このようなロバスト性は、経済学におけるナイトの不確実性(KU)、すなわち定量化できない不確実性に関係している。
本稿は,この盲点を特定し,その重要性を議論し,それに対応するための研究を触媒することを目的とする。
- 参考スコア(独自算出の注目度): 15.405261407658168
- License:
- Abstract: This paper claims that machine learning (ML) largely overlooks an important facet of general intelligence: robustness to a qualitatively unknown future in an open world. Such robustness relates to Knightian uncertainty (KU) in economics, i.e. uncertainty that cannot be quantified, which is excluded from consideration in ML's key formalisms. This paper aims to identify this blind spot, argue its importance, and catalyze research into addressing it, which we believe is necessary to create truly robust open-world AI. To help illuminate the blind spot, we contrast one area of ML, reinforcement learning (RL), with the process of biological evolution. Despite staggering ongoing progress, RL still struggles in open-world situations, often failing under unforeseen situations. For example, the idea of zero-shot transferring a self-driving car policy trained only in the US to the UK currently seems exceedingly ambitious. In dramatic contrast, biological evolution routinely produces agents that thrive within an open world, sometimes even to situations that are remarkably out-of-distribution (e.g. invasive species; or humans, who do undertake such zero-shot international driving). Interestingly, evolution achieves such robustness without explicit theory, formalisms, or mathematical gradients. We explore the assumptions underlying RL's typical formalisms, showing how they limit RL's engagement with the unknown unknowns characteristic of an ever-changing complex world. Further, we identify mechanisms through which evolutionary processes foster robustness to novel and unpredictable challenges, and discuss potential pathways to algorithmically embody them. The conclusion is that the intriguing remaining fragility of ML may result from blind spots in its formalisms, and that significant gains may result from direct confrontation with the challenge of KU.
- Abstract(参考訳): この論文は、機械学習(ML)が一般知能の重要な側面、すなわちオープンな世界における質的に未知の未来に対する堅牢性を見落としていると主張している。
このようなロバスト性は経済学におけるナイトの不確実性(KU)、すなわち定量化できない不確実性に関係しており、MLの主要な形式主義では考慮から除外されている。
本稿は、この盲点を特定し、その重要性を議論し、それに対応するために研究を触媒することを目的としている。
盲点を照らすために、我々はMLの1つの領域である強化学習(RL)と生物学的進化の過程を対比する。
進行が停滞しているにもかかわらず、RLはいまだにオープンワールドの状況で苦戦しており、しばしば予期せぬ状況下で失敗する。
例えば、米国でのみ訓練された自動運転車政策を、ゼロショットで英国に移管するというアイデアは、現在非常に野心的であるように思える。
劇的な対照的に、生物学的進化は、しばしばオープンワールド内で成長するエージェントを生産し、時には著しく分布外である状況(例えば、侵略的な種、またはそのようなゼロショットの国際運転を行う人間)に対してさえも生産する。
興味深いことに、進化は明示的な理論、形式主義、数学的勾配なしでそのような堅牢性を達成する。
我々は、RLの典型的な形式主義の根底にある仮定を探求し、RLの未知の未知の世界へのエンゲージメントをいかに制限するかを示した。
さらに、進化過程が新規で予測不可能な課題に対して堅牢性を促進するメカニズムを特定し、それらをアルゴリズム的に具体化する潜在的な経路について議論する。
結論として、MLの残る脆弱さは形式主義の盲点によって引き起こされる可能性があり、KUの挑戦と直接の対立によって大きな利益がもたらされる可能性がある。
関連論文リスト
- Towards Few-Shot Learning in the Open World: A Review and Beyond [52.41344813375177]
少ないショット学習は、人間の知性を模倣し、大きな一般化と伝達性を実現することを目的としている。
本稿では,FSLをオープンワールド環境に適用するための最近の進歩について概説する。
既存の手法は,3つの異なるタイプのオープンワールド・マイクロショット・ラーニングに分類する。
論文 参考訳(メタデータ) (2024-08-19T06:23:21Z) - Open-world Machine Learning: A Review and New Outlooks [83.6401132743407]
本稿では,新たなオープンワールド機械学習パラダイムを包括的に紹介することを目的としている。
研究者がそれぞれの分野でより強力なAIシステムを構築するのを支援し、人工知能の開発を促進することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T06:25:26Z) - The Reasoning Under Uncertainty Trap: A Structural AI Risk [0.0]
RUUを人間と機械の両方にとって困難なものにしているのは、レポートにある。
この誤用リスクが、基盤となる構造的リスクのネットワークとどのように結びつくのかを詳述する。
論文 参考訳(メタデータ) (2024-01-29T17:16:57Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Explainability in reinforcement learning: perspective and position [1.299941371793082]
本稿では, 説明可能なRL領域における既存手法の体系的概要について述べる。
新しく統合された分類法を提案し、既存の分類を構築・拡張する。
論文 参考訳(メタデータ) (2022-03-22T09:00:13Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Enabling risk-aware Reinforcement Learning for medical interventions
through uncertainty decomposition [9.208828373290487]
複雑な制御と意思決定の問題に対処するためのツールとして強化学習(RL)が登場している。
エージェントが学習した明らかに最適なポリシーと、実際の展開の間のギャップを埋めることは、しばしば困難である。
本稿では,各不確実性のネット効果を分解して不確かさを再現するために,分布的アプローチ (UA-DQN) を再キャストする方法を提案する。
論文 参考訳(メタデータ) (2021-09-16T09:36:53Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z) - Global Convolutional Neural Processes [52.85558458799716]
我々は,潜伏NPFにおけるSOTAログ類似化を実現するGloBal Convolutional Neural Process(GBCoNP)を構築する。
離散化された入力空間上の集合である大域的不確実性表現 p(z) を設計する。
学習した先行データは、1D、2D、新たに提案された時空間のCOVIDデータセットなど、さまざまなシナリオで分析される。
論文 参考訳(メタデータ) (2021-09-02T03:32:50Z) - Explainable Reinforcement Learning: A Survey [0.0]
説明可能な人工知能(XAI)はここ数年で勢いを増している。
XAIモデルには1つの有害な特徴がある。
本調査は、説明可能な強化学習(XRL)手法の概要を提供することで、このギャップに対処しようとするものである。
論文 参考訳(メタデータ) (2020-05-13T10:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。