論文の概要: A criterion for Artificial General Intelligence: hypothetic-deductive
reasoning, tested on ChatGPT
- arxiv url: http://arxiv.org/abs/2308.02950v1
- Date: Sat, 5 Aug 2023 20:33:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 17:38:25.477185
- Title: A criterion for Artificial General Intelligence: hypothetic-deductive
reasoning, tested on ChatGPT
- Title(参考訳): 人工的汎用知能の基準--chatgptを用いた仮説推論
- Authors: Louis Vervoort, Vitaliy Mizyakov, Anastasia Ugleva
- Abstract要約: 私たちは、高度なAIであるGPT-4が"思考機械"(AGI)として資格を得るためにマスターすべき重要な推論スキルは、仮説に基づく推論である、と論じます。
両タイプの推論に対して簡単なテストを提案し,それらをChatGPTに適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We argue that a key reasoning skill that any advanced AI, say GPT-4, should
master in order to qualify as 'thinking machine', or AGI, is
hypothetic-deductive reasoning. Problem-solving or question-answering can quite
generally be construed as involving two steps: hypothesizing that a certain set
of hypotheses T applies to the problem or question at hand, and deducing the
solution or answer from T - hence the term hypothetic-deductive reasoning. An
elementary proxy of hypothetic-deductive reasoning is causal reasoning. We
propose simple tests for both types of reasoning, and apply them to ChatGPT.
Our study shows that, at present, the chatbot has a limited capacity for either
type of reasoning, as soon as the problems considered are somewhat complex.
However, we submit that if an AI would be capable of this type of reasoning in
a sufficiently wide range of contexts, it would be an AGI.
- Abstract(参考訳): 我々は、高度なAIであるGPT-4が"思考機械"(AGI)として資格を得るためにマスターすべき重要な推論スキルは、仮説に基づく推論であると主張している。
問題解法または質問解法は、一般に、ある仮説の集合 T が問題や問題に適用されることを仮定し、解や解をTから導出する、という2つのステップを含むと解釈できる。
仮説推論の基本的な代理は因果推論である。
両方の推論に対する単純なテストを提案し,それをchatgptに適用する。
我々の研究は、現在チャットボットは、考慮される問題がやや複雑であればすぐに、どちらの推論にも限界があることを示している。
しかし、もしAIが十分に広い範囲の文脈でこの種の推論が可能であれば、AIはAGIになるだろうと提案する。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Can ChatGPT Make Explanatory Inferences? Benchmarks for Abductive Reasoning [0.0]
本稿では,AIプログラムが説明推論を行う能力を評価するためのベンチマークセットを提案する。
ベンチマークテストでは、ChatGPTが多くのドメインで創造的で評価的な推論を行うことが明らかになった。
ChatGPTと類似のモデルは説明、理解、因果推論、意味、創造性ができないという主張が反論される。
論文 参考訳(メタデータ) (2024-04-29T15:19:05Z) - Mitigating Misleading Chain-of-Thought Reasoning with Selective Filtering [59.495717939664246]
大規模言語モデルは、複雑な問題を解くためにチェーン・オブ・ソート(CoT)推論技術を活用することで、顕著な能力を示した。
本稿では,選択フィルタリング推論(SelF-Reasoner)と呼ばれる新しい手法を提案する。
SelF-ReasonerはScienceQA、ECQA、LastLetterタスクに対して、微調整されたT5ベースラインを一貫して改善する。
論文 参考訳(メタデータ) (2024-03-28T06:28:35Z) - When Is Inductive Inference Possible? [3.4991031406102238]
オンライン学習理論への新たなリンクを確立することにより,帰納的推論の厳密な特徴付けを行う。
帰納的推論が可能であることは、仮説クラスがオンライン学習可能なクラスの可算和である場合に限る。
私たちの主要な技術ツールは、新しい一様でないオンライン学習フレームワークです。
論文 参考訳(メタデータ) (2023-11-30T20:02:25Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Implicit Chain of Thought Reasoning via Knowledge Distillation [58.80851216530288]
思考推論ステップの連鎖を明示的に生成する代わりに、言語モデルの内部の隠れ状態を使用して暗黙の推論を行います。
このアプローチにより、明示的にチェーン・オブ・シントなしでは解決不可能なタスクを、非チェーン・オブ・シントに匹敵する速度で解決できることが分かりました。
論文 参考訳(メタデータ) (2023-11-02T17:59:49Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Impossibility Results in AI: A Survey [3.198144010381572]
不合理性定理(英: impossibility theorem)は、特定の問題や問題の集合が主張に記述されているように解決できないことを示す定理である。
我々はAIの領域に適用可能な不合理性定理を、推論、識別不能、誘導、トレードオフ、難解性の5つのカテゴリに分類した。
我々は,ゆるやかな不合理性は,安全に対する100%の保証を否定する,と結論づける。
論文 参考訳(メタデータ) (2021-09-01T16:52:13Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Explaining AI as an Exploratory Process: The Peircean Abduction Model [0.2676349883103404]
帰納的推論は様々な方法で定義されてきた。
帰納的推論の実装の課題と説明プロセスの自動化の課題は密接に関連している。
この分析は、XAI研究者がすでに行っていることを理解するための理論的枠組みを提供する。
論文 参考訳(メタデータ) (2020-09-30T17:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。