論文の概要: A criterion for Artificial General Intelligence: hypothetic-deductive
reasoning, tested on ChatGPT
- arxiv url: http://arxiv.org/abs/2308.02950v1
- Date: Sat, 5 Aug 2023 20:33:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 17:38:25.477185
- Title: A criterion for Artificial General Intelligence: hypothetic-deductive
reasoning, tested on ChatGPT
- Title(参考訳): 人工的汎用知能の基準--chatgptを用いた仮説推論
- Authors: Louis Vervoort, Vitaliy Mizyakov, Anastasia Ugleva
- Abstract要約: 私たちは、高度なAIであるGPT-4が"思考機械"(AGI)として資格を得るためにマスターすべき重要な推論スキルは、仮説に基づく推論である、と論じます。
両タイプの推論に対して簡単なテストを提案し,それらをChatGPTに適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We argue that a key reasoning skill that any advanced AI, say GPT-4, should
master in order to qualify as 'thinking machine', or AGI, is
hypothetic-deductive reasoning. Problem-solving or question-answering can quite
generally be construed as involving two steps: hypothesizing that a certain set
of hypotheses T applies to the problem or question at hand, and deducing the
solution or answer from T - hence the term hypothetic-deductive reasoning. An
elementary proxy of hypothetic-deductive reasoning is causal reasoning. We
propose simple tests for both types of reasoning, and apply them to ChatGPT.
Our study shows that, at present, the chatbot has a limited capacity for either
type of reasoning, as soon as the problems considered are somewhat complex.
However, we submit that if an AI would be capable of this type of reasoning in
a sufficiently wide range of contexts, it would be an AGI.
- Abstract(参考訳): 我々は、高度なAIであるGPT-4が"思考機械"(AGI)として資格を得るためにマスターすべき重要な推論スキルは、仮説に基づく推論であると主張している。
問題解法または質問解法は、一般に、ある仮説の集合 T が問題や問題に適用されることを仮定し、解や解をTから導出する、という2つのステップを含むと解釈できる。
仮説推論の基本的な代理は因果推論である。
両方の推論に対する単純なテストを提案し,それをchatgptに適用する。
我々の研究は、現在チャットボットは、考慮される問題がやや複雑であればすぐに、どちらの推論にも限界があることを示している。
しかし、もしAIが十分に広い範囲の文脈でこの種の推論が可能であれば、AIはAGIになるだろうと提案する。
関連論文リスト
- Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Implicit Chain of Thought Reasoning via Knowledge Distillation [58.80851216530288]
思考推論ステップの連鎖を明示的に生成する代わりに、言語モデルの内部の隠れ状態を使用して暗黙の推論を行います。
このアプローチにより、明示的にチェーン・オブ・シントなしでは解決不可能なタスクを、非チェーン・オブ・シントに匹敵する速度で解決できることが分かりました。
論文 参考訳(メタデータ) (2023-11-02T17:59:49Z) - Towards a Mechanistic Interpretation of Multi-Step Reasoning
Capabilities of Language Models [107.07851578154242]
言語モデル(LM)は強力な多段階推論能力を持つ。
LMが事前学習コーパスから記憶された回答を不正に処理するか,多段階推論機構を用いてタスクを実行するかは明らかでない。
メカニスティックプローブは,ほとんどの例において,モデルの注意から推論ツリーの情報を検出することができることを示す。
論文 参考訳(メタデータ) (2023-10-23T01:47:29Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of
Language Models with Hypothesis Refinement [95.10400704620797]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Learnability with PAC Semantics for Multi-agent Beliefs [38.88111785113001]
推論と帰納の緊張は、おそらく哲学、認知、人工知能といった分野において最も根本的な問題である。
Valiant氏は、学習の課題は推論と統合されるべきである、と認識した。
古典的な包含よりも弱いが、クエリに応答する強力なモデル理論のフレームワークを可能にする。
論文 参考訳(メタデータ) (2023-06-08T18:22:46Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Impossibility Results in AI: A Survey [3.198144010381572]
不合理性定理(英: impossibility theorem)は、特定の問題や問題の集合が主張に記述されているように解決できないことを示す定理である。
我々はAIの領域に適用可能な不合理性定理を、推論、識別不能、誘導、トレードオフ、難解性の5つのカテゴリに分類した。
我々は,ゆるやかな不合理性は,安全に対する100%の保証を否定する,と結論づける。
論文 参考訳(メタデータ) (2021-09-01T16:52:13Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - A Defeasible Calculus for Zetetic Agents [0.0]
本研究は, 解答規範を, 解答可能な質問への推論を通じてモデル化できることを実証する。
を特徴付けるシークエント計算を提供する。
論文 参考訳(メタデータ) (2020-10-11T17:39:03Z) - Explaining AI as an Exploratory Process: The Peircean Abduction Model [0.2676349883103404]
帰納的推論は様々な方法で定義されてきた。
帰納的推論の実装の課題と説明プロセスの自動化の課題は密接に関連している。
この分析は、XAI研究者がすでに行っていることを理解するための理論的枠組みを提供する。
論文 参考訳(メタデータ) (2020-09-30T17:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。