論文の概要: Artificial Expert Intelligence through PAC-reasoning
- arxiv url: http://arxiv.org/abs/2412.02441v1
- Date: Tue, 03 Dec 2024 13:25:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:51:27.545068
- Title: Artificial Expert Intelligence through PAC-reasoning
- Title(参考訳): PAC推論による人工知能
- Authors: Shai Shalev-Shwartz, Amnon Shashua, Gal Beniamini, Yoav Levine, Or Sharir, Noam Wies, Ido Ben-Shaul, Tomer Nussbaum, Shir Granot Peled,
- Abstract要約: 人工知能(AEI)は、人工知能(AGI)と狭義のAIの両方の限界を超越しようとしている。
AEIは、ドメイン固有の専門知識と、トップヒューマンの専門家と同様、批判的で正確な推論能力を統合することを目指している。
- 参考スコア(独自算出の注目度): 21.91294369791479
- License:
- Abstract: Artificial Expert Intelligence (AEI) seeks to transcend the limitations of both Artificial General Intelligence (AGI) and narrow AI by integrating domain-specific expertise with critical, precise reasoning capabilities akin to those of top human experts. Existing AI systems often excel at predefined tasks but struggle with adaptability and precision in novel problem-solving. To overcome this, AEI introduces a framework for ``Probably Approximately Correct (PAC) Reasoning". This paradigm provides robust theoretical guarantees for reliably decomposing complex problems, with a practical mechanism for controlling reasoning precision. In reference to the division of human thought into System 1 for intuitive thinking and System 2 for reflective reasoning~\citep{tversky1974judgment}, we refer to this new type of reasoning as System 3 for precise reasoning, inspired by the rigor of the scientific method. AEI thus establishes a foundation for error-bounded, inference-time learning.
- Abstract(参考訳): 人工知能(AEI)は、AGI(Artificial General Intelligence)と狭義のAIの両方の限界を超越し、ドメイン固有の専門知識と、トップ人間の専門家と同様の、批判的で正確な推論能力を統合することを目指している。
既存のAIシステムは、事前に定義されたタスクで優れていることが多いが、新しい問題解決において適応性と精度に苦労する。
これを解決するために、AEIは ``Probably Aquatrect (PAC) Reasoning" というフレームワークを導入した。
このパラダイムは、複雑な問題を確実に分解するための堅牢な理論的保証を提供し、推論精度を制御するための実践的なメカニズムを提供する。
直感的思考のためのシステム1と反射的推論のためのシステム2への人間の思考の分割について、我々はこの新たなタイプの推論を、科学的手法の厳密さにインスパイアされた、正確な推論のためのシステム3と呼ぶ。
AEIは、エラーバウンドな推論時間学習の基礎を確立する。
関連論文リスト
- Towards A Litmus Test for Common Sense [5.280511830552275]
この論文は、安全で有益な人工知能への道を構想するシリーズの第2弾となる。
我々は,最小の事前知識制約と対角的あるいはゴドネル的な議論を組み合わせた公理的アプローチを用いて,より形式的なリトマステストを提案する。
論文 参考訳(メタデータ) (2025-01-17T02:02:12Z) - Common Sense Is All You Need [5.280511830552275]
人工知能(AI)は近年大きな進歩を遂げているが、すべての動物に存在する認知の基本的な側面(常識)に悩まされ続けている。
現在のAIシステムは、広範囲の事前知識を必要とせずに、新しい状況に適応する能力に欠けることが多い。
この原稿は、AIシステムに常識を統合することは、真の自律性を達成し、AIの完全な社会的および商業的価値を解放するために不可欠である、と論じている。
論文 参考訳(メタデータ) (2025-01-11T21:23:41Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Applications of Explainable artificial intelligence in Earth system science [12.454478986296152]
このレビューは、説明可能なAI(XAI)の基礎的な理解を提供することを目的としている。
XAIはモデルをより透明にする強力なツールセットを提供する。
我々は、地球系科学(ESS)において、XAIが直面する4つの重要な課題を識別する。
AIモデルは未知を探索し、XAIは説明を提供することでギャップを埋める。
論文 参考訳(メタデータ) (2024-06-12T15:05:29Z) - Heuristic Reasoning in AI: Instrumental Use and Mimetic Absorption [0.2209921757303168]
人工知能(AI)の新しい推論プログラムを提案する。
我々は、AIが、リソース・レーショナルな人間の認知の原理と整合して、精度と効率の適応的バランスを示すことを示す。
我々の発見は、資源と目的のトレードオフが生物学的システムのエミュレーションに繋がる、AI認知の微妙なイメージを明らかにした。
論文 参考訳(メタデータ) (2024-03-14T13:53:05Z) - XXAI: Towards eXplicitly eXplainable Artificial Intelligence [0.0]
サブシンボリックニューラルネットワークに基づく人工知能の信頼性と安全性には懸念がある。
象徴的なAIは、ホワイトボックスの性質を持ち、その決定の信頼性と安全性を保証することができる。
eXplicitly eXplainable AI (XXAI) - 決定論的論理セルオートマトンに基づく完全透明なホワイトボックスAIを提案する。
論文 参考訳(メタデータ) (2024-01-05T23:50:10Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - From LSAT: The Progress and Challenges of Complex Reasoning [56.07448735248901]
本稿では,LSAT(Law School Admission Test)の3つの課題について,解析的推論,論理的推論,読解の3つの課題について検討する。
本稿では,これら3つのタスクを統合するハイブリッド推論システムを提案する。
論文 参考訳(メタデータ) (2021-08-02T05:43:03Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。