論文の概要: Probabilistic Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2502.05244v1
- Date: Fri, 07 Feb 2025 14:29:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:34:36.944222
- Title: Probabilistic Artificial Intelligence
- Title(参考訳): 確率的人工知能
- Authors: Andreas Krause, Jonas Hübotter,
- Abstract要約: インテリジェンスの主な側面は、予測を行うだけでなく、これらの予測の不確実性について推論し、決定を行うときにこの不確実性を考慮することである。
データ不足による「緊急的」不確実性と「アラート的」不確実性との区別について論じる。
- 参考スコア(独自算出の注目度): 42.59649764999974
- License:
- Abstract: Artificial intelligence commonly refers to the science and engineering of artificial systems that can carry out tasks generally associated with requiring aspects of human intelligence, such as playing games, translating languages, and driving cars. In recent years, there have been exciting advances in learning-based, data-driven approaches towards AI, and machine learning and deep learning have enabled computer systems to perceive the world in unprecedented ways. Reinforcement learning has enabled breakthroughs in complex games such as Go and challenging robotics tasks such as quadrupedal locomotion. A key aspect of intelligence is to not only make predictions, but reason about the uncertainty in these predictions, and to consider this uncertainty when making decisions. This is what this manuscript on "Probabilistic Artificial Intelligence" is about. The first part covers probabilistic approaches to machine learning. We discuss the differentiation between "epistemic" uncertainty due to lack of data and "aleatoric" uncertainty, which is irreducible and stems, e.g., from noisy observations and outcomes. We discuss concrete approaches towards probabilistic inference and modern approaches to efficient approximate inference. The second part of the manuscript is about taking uncertainty into account in sequential decision tasks. We consider active learning and Bayesian optimization -- approaches that collect data by proposing experiments that are informative for reducing the epistemic uncertainty. We then consider reinforcement learning and modern deep RL approaches that use neural network function approximation. We close by discussing modern approaches in model-based RL, which harness epistemic and aleatoric uncertainty to guide exploration, while also reasoning about safety.
- Abstract(参考訳): 人工知能は一般的に、ゲームや翻訳言語、自動車の運転など、人間の知能の側面を必要とするタスクを実行することができる人工システムの科学と工学を指す。
近年、AIに対する学習ベースでデータ駆動型アプローチのエキサイティングな進歩があり、機械学習とディープラーニングによって、コンピュータシステムは前例のない方法で世界を理解することができるようになった。
強化学習は、Goのような複雑なゲームや四足歩行のような挑戦的なロボティクスタスクにおけるブレークスルーを可能にした。
インテリジェンスの重要な側面は、予測を行うだけでなく、これらの予測における不確実性について推論し、決定を行うときにこの不確実性を考慮することである。
これが「確率的人工知能」の本文である。
第1部では、マシンラーニングに対する確率論的アプローチを取り上げている。
データ不足による「緊急的」不確実性と「アラート的」不確実性との区別について論じる。
確率的推論への具体的なアプローチと、効率的な近似推論への現代的なアプローチについて議論する。
写本の第2部は、逐次的な意思決定作業における不確実性を考慮したものである。
積極的学習とベイズ最適化(Bayesian Optimization) -- てんかんの不確実性を減らすために有用な実験を提案してデータを集めるアプローチを考える。
次に、ニューラルネットワーク関数近似を用いた強化学習と最新の深層RLアプローチを検討する。
モデルベースRLの近代的アプローチについて論じる。これは、疫学とアレタリックな不確実性を利用して探索をガイドし、安全性を推論するものである。
関連論文リスト
- A Survey on Brain-Inspired Deep Learning via Predictive Coding [85.93245078403875]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Towards Benchmarking Explainable Artificial Intelligence Methods [0.0]
我々は、ニューラルネットワークによって推進される決定を説明する方法から、科学理論の哲学を、期待できるもの、期待できないものを明らかにすることを目的として分析レンズとして利用する。
ケーススタディにより、動物とヘッドギアの2つの常在領域における説明可能性法の性能の選択について検討した。
これらの手法の有用性は、人間のドメイン知識と、理解し、一般化し、理性に頼っている、と私たちはうなずく。
論文 参考訳(メタデータ) (2022-08-25T14:28:30Z) - Neurocompositional computing: From the Central Paradox of Cognition to a
new generation of AI systems [120.297940190903]
AIの最近の進歩は、限られた形態のニューロコンフォメーションコンピューティングの使用によってもたらされている。
ニューロコンポジションコンピューティングの新しい形式は、より堅牢で正確で理解しやすいAIシステムを生み出します。
論文 参考訳(メタデータ) (2022-05-02T18:00:10Z) - From Psychological Curiosity to Artificial Curiosity: Curiosity-Driven
Learning in Artificial Intelligence Tasks [56.20123080771364]
心理学的好奇心は、探索と情報取得を通じて学習を強化するために、人間の知性において重要な役割を果たす。
人工知能(AI)コミュニティでは、人工好奇心は効率的な学習に自然な本質的な動機を与える。
CDLはますます人気を博し、エージェントは新たな知識を学習するために自己動機付けされている。
論文 参考訳(メタデータ) (2022-01-20T17:07:03Z) - Finding the unicorn: Predicting early stage startup success through a
hybrid intelligence method [3.8471013858178424]
スタートアップの成功を予測するためのハイブリッドインテリジェンス手法を開発した。
この方法は、機械と集団知能の強さを組み合わせて、極めて不確実な条件下でその有用性を実証する。
論文 参考訳(メタデータ) (2021-05-07T16:16:36Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z) - Self-explaining AI as an alternative to interpretable AI [0.0]
二重降下は、深層ニューラルネットワークがデータポイント間のスムーズな補間によって動作することを示している。
複雑な現実世界のデータに基づいてトレーニングされたニューラルネットワークは、本質的に解釈が困難で、外挿を求めると失敗する傾向がある。
自己説明型AIは、決定と説明の両方の信頼性レベルとともに、人間に理解可能な説明を提供することができる。
論文 参考訳(メタデータ) (2020-02-12T18:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。