論文の概要: Normality and the Turing Test
- arxiv url: http://arxiv.org/abs/2508.21382v2
- Date: Sat, 08 Nov 2025 09:17:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 14:56:00.082171
- Title: Normality and the Turing Test
- Title(参考訳): 正常性とチューリング試験
- Authors: Alexandre Kabbach,
- Abstract要約: チューリングテストは、通常の裁判官によって評価される通常の知性のテストであると主張している。
チューリングテストにおける通常の人間の振る舞いの客観化は、テストのゲーム構成のために失敗すると主張している。
- 参考スコア(独自算出の注目度): 51.56484100374058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes to revisit the Turing test through the concept of normality. Its core argument is that the Turing test is a test of normal intelligence as assessed by a normal judge. First, in the sense that the Turing test targets normal/average rather than exceptional human intelligence, so that successfully passing the test requires machines to "make mistakes" and display imperfect behavior just like normal/average humans. Second, in the sense that the Turing test is a statistical test where judgments of intelligence are never carried out by a single "average" judge (understood as non-expert) but always by a full jury. As such, the notion of "average human interrogator" that Turing talks about in his original paper should be understood primarily as referring to a mathematical abstraction made of the normalized aggregate of individual judgments of multiple judges. Its conclusions are twofold. First, it argues that large language models such as ChatGPT are unlikely to pass the Turing test as those models precisely target exceptional rather than normal/average human intelligence. As such, they constitute models of what it proposes to call artificial smartness rather than artificial intelligence, insofar as they deviate from the original goal of Turing for the modeling of artificial minds. Second, it argues that the objectivization of normal human behavior in the Turing test fails due to the game configuration of the test which ends up objectivizing normative ideals of normal behavior rather than normal behavior per se.
- Abstract(参考訳): 本稿では、正規性の概念を通じてチューリング試験を再検討することを提案する。
その中心的な主張は、チューリングテストは通常の裁判官によって評価される通常の知性のテストであるということである。
第一に、チューリングテストが人間の異常な知能ではなく普通の/平均を目標とするという意味で、テストに合格するためには、機械が「ミスを犯す」ことと、通常の/平均的な人間と同じように不完全な振る舞いを表示する必要がある。
第二に、チューリングテスト(チューリングテスト)は、知性の判断が単一の「平均的」裁判官(非専門家と解釈される)によって行われるのではなく、常に完全な陪審によって行われる統計テストである。
このように、チューリングがオリジナルの論文で述べた「平均的な人間の尋問者」の概念は、主に複数の裁判官の個人判断の正規化された集合からなる数学的抽象概念として理解されるべきである。
その結論は2つある。
第一に、ChatGPTのような大きな言語モデルはチューリングテストに合格する可能性は低い、と論じている。
そのため、人工知能ではなく人工知能と呼ぶもののモデルを構成しており、人工心のモデリングのためのチューリングの本来の目標から逸脱している。
第二に、チューリングテストにおける正常な人間の行動の客観化は、テストのゲーム構成によって失敗し、結果として通常の行動よりも通常の行動の規範的理想を客観化する。
関連論文リスト
- Evaluating Intelligence via Trial and Error [59.80426744891971]
本研究では,試行錯誤プロセスにおける失敗回数に基づいて知性を評価するためのフレームワークとして,Survival Gameを紹介した。
フェールカウントの期待と分散の両方が有限である場合、新しい課題に対するソリューションを一貫して見つける能力を示す。
我々の結果は、AIシステムは単純なタスクで自律レベルを達成するが、より複雑なタスクではまだまだ遠いことを示している。
論文 参考訳(メタデータ) (2025-02-26T05:59:45Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - The Human-or-Machine Matter: Turing-Inspired Reflections on an Everyday
Issue [4.309879785418976]
マシンにインテリジェントなラベルを付けることができるのか、あるいは特定のコンテキストにおける人間の能力と一致すると言えるのか、という疑問を副次的に解決する。
「私は人間や機械と対話しているか」という、日常のやりとりの中で、一見単純な質問に最初に注意を向ける。
論文 参考訳(メタデータ) (2023-05-07T15:41:11Z) - The Turing Deception [0.0]
本研究は従来のチューリングテストを再検討し、ChatGPTのような最近の大規模言語モデルと比較する。
アルゴリズムがチューリングの真の独創的な考えのヒントを表示するかどうかという問題は、現時点では未解決であり、潜在的に未解決である。
論文 参考訳(メタデータ) (2022-12-09T16:32:11Z) - Can Machines Imitate Humans? Integrative Turing Tests for Vision and Language Demonstrate a Narrowing Gap [45.6806234490428]
3つの言語タスクと3つのビジョンタスクで人間を模倣する能力において、現在のAIをベンチマークします。
実験では、549人の人間エージェントと26人のAIエージェントがデータセットの作成に使われ、1,126人の人間審査員と10人のAI審査員が参加した。
結果として、現在のAIは、複雑な言語とビジョンの課題において人間を偽装できるものではないことが判明した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。