論文の概要: Normality and the Turing Test
- arxiv url: http://arxiv.org/abs/2508.21382v1
- Date: Fri, 29 Aug 2025 07:55:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.95256
- Title: Normality and the Turing Test
- Title(参考訳): 正常性とチューリング試験
- Authors: Alexandre Kabbach,
- Abstract要約: チューリングテスト(英: Turing test)は、単一の「平均的な」裁判官によって行われるのではなく、常に完全な陪審員によって行われる統計試験である。
論文は、チューリングテストは、人間の尋問者のプールの平均的な判断を特徴付ける通常の裁判官によって評価される通常の知性のテストであると主張している。
- 参考スコア(独自算出の注目度): 51.56484100374058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes to revisit the Turing test through the concept of normality. Its core argument is that the statistical interpretation of the normal--understood as the average both in the normative and mathematical sense of the term--proves useful for understanding the Turing test in at least two ways. First, in the sense that the Turing test targets normal/average rather than exceptional human intelligence, so that successfully passing the test requires building machines that "make mistakes" and display imperfect behavior just like normal/average humans. Second, in the sense that the Turing test is a statistical test where judgments of intelligence are never carried out by a single "average" judge (understood as non-expert) but always by a full jury. As such, the notion of "average human interrogator" that Turing talks about in his original paper should be understood primarily as referring to a mathematical abstraction made of the normalized aggregate of individual judgments of multiple judges. In short, this paper argues that the Turing test is a test of normal intelligence as assessed by a normal judge characterizing the average judgment of a pool of human interrogators. Its conclusions are twofold. First, it argues that large language models such as ChatGPT are unlikely to pass the Turing test as those models precisely target exceptional rather than normal/average human intelligence. As such, they constitute models of what it proposes to call artificial smartness rather than artificial intelligence per se. Second, it argues that the core question of whether the Turing test can contribute anything to the understanding of human cognition is that of whether the human mind is really reducible to the normal/average mind--a question which largely extends beyond the Turing test itself and questions the conceptual underpinnings of the normalist paradigm it belongs to.
- Abstract(参考訳): 本稿では、正規性の概念を通じてチューリング試験を再検討することを提案する。
その中心的な議論は、正規項の統計的解釈は、その項の規範的および数学的意味の両方において平均として理解され、少なくとも2つの方法でチューリングテストを理解するのに有用であるということである。
第一に、チューリングテストが人間の異常な知能ではなく普通の/平均を目標とするという意味では、テストに合格するためには、"ミスを犯す"マシンを構築し、通常の/平均的な人間と同じように不完全な振る舞いを表示する必要がある。
第二に、チューリングテスト(チューリングテスト)は、知能の判断が単一の「平均的」裁判官(非専門家と解釈される)によって行われるのではなく、常に完全な陪審によって行われる統計テストである。
このように、チューリングがオリジナルの論文で語った「平均的な人間の尋問者」の概念は、主に複数の裁判官の個人判断の正規化された集合からなる数学的抽象概念として理解されるべきである。
本論では,チューリングテストは,人間の尋問者のプールの平均的判断を特徴付ける正常な判断によって評価される通常の知能検査である,と論じる。
その結論は2つある。
第一に、ChatGPTのような大きな言語モデルはチューリングテストに合格する可能性は低い、と論じている。
そのため、人工知能ではなく、人工知能と呼ぶもののモデルを構成する。
第二に、チューリングテストが人間の認知の理解に何らかの貢献できるかどうかという質問は、人間の心が正常/平均的な心に本当に還元可能であるかどうかである、と論じている。
関連論文リスト
- Evaluating Intelligence via Trial and Error [59.80426744891971]
本研究では,試行錯誤プロセスにおける失敗回数に基づいて知性を評価するためのフレームワークとして,Survival Gameを紹介した。
フェールカウントの期待と分散の両方が有限である場合、新しい課題に対するソリューションを一貫して見つける能力を示す。
我々の結果は、AIシステムは単純なタスクで自律レベルを達成するが、より複雑なタスクではまだまだ遠いことを示している。
論文 参考訳(メタデータ) (2025-02-26T05:59:45Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - The Human-or-Machine Matter: Turing-Inspired Reflections on an Everyday
Issue [4.309879785418976]
マシンにインテリジェントなラベルを付けることができるのか、あるいは特定のコンテキストにおける人間の能力と一致すると言えるのか、という疑問を副次的に解決する。
「私は人間や機械と対話しているか」という、日常のやりとりの中で、一見単純な質問に最初に注意を向ける。
論文 参考訳(メタデータ) (2023-05-07T15:41:11Z) - The Turing Deception [0.0]
本研究は従来のチューリングテストを再検討し、ChatGPTのような最近の大規模言語モデルと比較する。
アルゴリズムがチューリングの真の独創的な考えのヒントを表示するかどうかという問題は、現時点では未解決であり、潜在的に未解決である。
論文 参考訳(メタデータ) (2022-12-09T16:32:11Z) - Can Machines Imitate Humans? Integrative Turing Tests for Vision and Language Demonstrate a Narrowing Gap [45.6806234490428]
3つの言語タスクと3つのビジョンタスクで人間を模倣する能力において、現在のAIをベンチマークします。
実験では、549人の人間エージェントと26人のAIエージェントがデータセットの作成に使われ、1,126人の人間審査員と10人のAI審査員が参加した。
結果として、現在のAIは、複雑な言語とビジョンの課題において人間を偽装できるものではないことが判明した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。