論文の概要: Impossibility Results in AI: A Survey
- arxiv url: http://arxiv.org/abs/2109.00484v1
- Date: Wed, 1 Sep 2021 16:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 15:02:23.410421
- Title: Impossibility Results in AI: A Survey
- Title(参考訳): AIにおける不可能な結果:調査
- Authors: Mario Brcic and Roman V. Yampolskiy
- Abstract要約: 不合理性定理(英: impossibility theorem)は、特定の問題や問題の集合が主張に記述されているように解決できないことを示す定理である。
我々はAIの領域に適用可能な不合理性定理を、推論、識別不能、誘導、トレードオフ、難解性の5つのカテゴリに分類した。
我々は,ゆるやかな不合理性は,安全に対する100%の保証を否定する,と結論づける。
- 参考スコア(独自算出の注目度): 3.198144010381572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An impossibility theorem demonstrates that a particular problem or set of
problems cannot be solved as described in the claim. Such theorems put limits
on what is possible to do concerning artificial intelligence, especially the
super-intelligent one. As such, these results serve as guidelines, reminders,
and warnings to AI safety, AI policy, and governance researchers. These might
enable solutions to some long-standing questions in the form of formalizing
theories in the framework of constraint satisfaction without committing to one
option. In this paper, we have categorized impossibility theorems applicable to
the domain of AI into five categories: deduction, indistinguishability,
induction, tradeoffs, and intractability. We found that certain theorems are
too specific or have implicit assumptions that limit application. Also, we
added a new result (theorem) about the unfairness of explainability, the first
explainability-related result in the induction category. We concluded that
deductive impossibilities deny 100%-guarantees for security. In the end, we
give some ideas that hold potential in explainability, controllability, value
alignment, ethics, and group decision-making. They can be deepened by further
investigation.
- Abstract(参考訳): 不可能定理は、クレームで述べられているように、特定の問題や一連の問題を解くことができないことを証明している。
このような定理は、人工知能、特に超知能に関して何ができるかに限界を与えた。
これらの結果は、AI安全性、AIポリシ、ガバナンス研究者に対するガイドライン、リマインダー、警告として機能する。
これらのことは、ある選択肢にコミットすることなく、制約満足の枠組みで理論を定式化する形で、長期にわたる疑問の解決を可能にするかもしれない。
本稿では,AI分野に適用可能な不合理性定理を,推論,不識別性,誘導,トレードオフ,難解性の5つのカテゴリに分類した。
ある定理は具体的すぎるか、適用を制限する暗黙の仮定を持っていることが判明した。
また、誘導カテゴリーにおける説明可能性に関する最初の説明可能性関連結果である説明可能性の不公平性に関する新たな結果(理論)を付け加えた。
ゆるやかな不合理さは、安全に対する100%の保証を否定する、と結論づけた。
最後に、説明可能性、制御可能性、価値の整合性、倫理、グループ意思決定の可能性を秘めているいくつかのアイデアを提示します。
さらなる調査によってさらに深まることができる。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Can a Bayesian Oracle Prevent Harm from an Agent? [48.12936383352277]
我々は、所定の安全仕様に違反する確率に基づいて、文脈依存境界を推定することを検討する。
世界の異なる仮説が全く異なる結果をもたらす可能性があることに注意し、我々は真だが未知の仮説の下で予測される安全違反の確率に基づいて導かれる。
iidの場合と非idの場合の2つの形態を考察し、その結果を実用的なAIガードレールに変換するためのオープンな問題に結論付ける。
論文 参考訳(メタデータ) (2024-08-09T18:10:42Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - When Is Inductive Inference Possible? [3.4991031406102238]
オンライン学習理論への新たなリンクを確立することにより,帰納的推論の厳密な特徴付けを行う。
帰納的推論が可能であることは、仮説クラスがオンライン学習可能なクラスの可算和である場合に限る。
私たちの主要な技術ツールは、新しい一様でないオンライン学習フレームワークです。
論文 参考訳(メタデータ) (2023-11-30T20:02:25Z) - A criterion for Artificial General Intelligence: hypothetic-deductive
reasoning, tested on ChatGPT [0.0]
私たちは、高度なAIであるGPT-4が"思考機械"(AGI)として資格を得るためにマスターすべき重要な推論スキルは、仮説に基づく推論である、と論じます。
両タイプの推論に対して簡単なテストを提案し,それらをChatGPTに適用する。
論文 参考訳(メタデータ) (2023-08-05T20:33:13Z) - TheoremQA: A Theorem-driven Question Answering dataset [100.39878559382694]
GPT-4のこれらの問題を解決する能力は非並列であり、Program-of-Thoughts Promptingの精度は51%である。
TheoremQAは、350の定理をカバーする800の高品質な質問を含むドメインの専門家によってキュレートされる。
論文 参考訳(メタデータ) (2023-05-21T17:51:35Z) - Non-ground Abductive Logic Programming with Probabilistic Integrity
Constraints [2.624902795082451]
本稿では,変数の確率的推論に対処する,よりリッチな論理言語について考察する。
まず, 分配セマンティックスに基づいて, 全体としての帰納的言語とその意味を提示する。
次に,前述したものを拡張して得られた証明手順を導入し,その健全性と完全性を証明する。
論文 参考訳(メタデータ) (2021-08-06T10:22:12Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Explaining AI as an Exploratory Process: The Peircean Abduction Model [0.2676349883103404]
帰納的推論は様々な方法で定義されてきた。
帰納的推論の実装の課題と説明プロセスの自動化の課題は密接に関連している。
この分析は、XAI研究者がすでに行っていることを理解するための理論的枠組みを提供する。
論文 参考訳(メタデータ) (2020-09-30T17:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。