論文の概要: The next question after Turing's question: Introducing the Grow-AI test
- arxiv url: http://arxiv.org/abs/2508.16277v1
- Date: Fri, 22 Aug 2025 10:19:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.355287
- Title: The next question after Turing's question: Introducing the Grow-AI test
- Title(参考訳): Turing氏の質問の次の質問:Grow-AIテストの導入
- Authors: Alexandru Tugui,
- Abstract要約: 本研究は,GROW-AIと呼ばれる人工知能評価の枠組みを拡張することを目的としている。
GROW-AIは、チューリングテストの自然な後継者である"Can Machine grow up?
この作品の独創性は、人間の世界から人工知能への「成長」過程の概念的な変換にある。
- 参考スコア(独自算出の注目度): 51.56484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study aims to extend the framework for assessing artificial intelligence, called GROW-AI (Growth and Realization of Autonomous Wisdom), designed to answer the question "Can machines grow up?" -- a natural successor to the Turing Test. The methodology applied is based on a system of six primary criteria (C1-C6), each assessed through a specific "game", divided into four arenas that explore both the human dimension and its transposition into AI. All decisions and actions of the entity are recorded in a standardized AI Journal, the primary source for calculating composite scores. The assessment uses the prior expert method to establish initial weights, and the global score -- Grow Up Index -- is calculated as the arithmetic mean of the six scores, with interpretation on maturity thresholds. The results show that the methodology allows for a coherent and comparable assessment of the level of "growth" of AI entities, regardless of their type (robots, software agents, LLMs). The multi-game structure highlights strengths and vulnerable areas, and the use of a unified journal guarantees traceability and replicability in the evaluation. The originality of the work lies in the conceptual transposition of the process of "growing" from the human world to that of artificial intelligence, in an integrated testing format that combines perspectives from psychology, robotics, computer science, and ethics. Through this approach, GROW-AI not only measures performance but also captures the evolutionary path of an AI entity towards maturity.
- Abstract(参考訳): この研究は、チューリングテストの自然な後継者である「機械は成長するのか?」という疑問に答えるために設計されたGROW-AI(Growth and Realization of Autonomous Wisdom)と呼ばれる人工知能を評価するフレームワークを拡張することを目的としている。
この手法は6つの主要な基準(C1-C6)に基づいており、それぞれが特定の「ゲーム」を通して評価され、人間の次元とAIへの変換の両方を探索する4つのアリーナに分けられる。
エンティティのすべての決定とアクションは、合成スコアを計算するための主要なソースである標準化されたAI Journalに記録される。
評価は、初期重みを確立するために、事前の専門家手法を使用し、グローバルスコア(Grow Up Index)は、成熟度閾値の解釈とともに、6つのスコアの算術平均として計算される。
その結果,ロボット,ソフトウェアエージェント,LLM) に関わらず,AIエンティティの“成長”レベルを,一貫性と同等に評価することが可能であることが示唆された。
マルチゲーム構造は、強度と脆弱な領域を強調し、統一されたジャーナルを使用することで、評価におけるトレーサビリティと複製性が保証される。
この作品の独創性は、心理学、ロボティクス、コンピュータ科学、倫理の視点を組み合わせた統合的なテスト形式で、人間の世界から人工知能への「成長」プロセスの概念的な変換にある。
このアプローチを通じて、GROW-AIはパフォーマンスを測定するだけでなく、AIエンティティの成熟への進化の道を捉えます。
関連論文リスト
- From Human to Machine Psychology: A Conceptual Framework for Understanding Well-Being in Large Language Models [0.0]
本稿では,機械の繁栄の概念を紹介し,PAPERSフレームワークを提案する。
我々の発見は、人間とシステム固有の優先順位の両方を考慮に入れた、AI固有の繁栄モデルを開発することの重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-14T20:14:02Z) - Generalising from Self-Produced Data: Model Training Beyond Human Constraints [0.0]
本稿では,AIモデルが新たな知識を自律的に生成し,検証する新しい枠組みを提案する。
このアプローチの中心は、人間のベンチマークを必要とせずに学習をガイドする、無制限で使い捨ての数値報酬である。
論文 参考訳(メタデータ) (2025-04-07T03:48:02Z) - General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - A Basis for Human Responsibility in Artificial Intelligence Computation [0.0]
人工知能の最近の進歩は、AIの自律性の境界に関する疑問を再燃させた。
本稿では,GPT-4におけるアライメント研究センター実験の分析を通して,これらの境界について検討する。
思考実験とその対策を検討することで、人間のアクティベーションと目的の定義の必要性が、AIが人間によって開始された行動に固有の依存にどのように依存しているかを啓蒙する。
論文 参考訳(メタデータ) (2025-01-21T20:59:48Z) - Validity Arguments For Constructed Response Scoring Using Generative Artificial Intelligence Applications [0.0]
ジェネレーティブAIは、従来のAIスコアリングにおける手作り機能に必要な労力を減らすため、特に魅力的である。
我々は,人間の評価,特徴に基づく自然言語処理AIスコアリングエンジン,生成AIを用いたスコアリングシステムに必要な妥当性証拠を比較した。
論文 参考訳(メタデータ) (2025-01-04T16:59:29Z) - Measuring Human Contribution in AI-Assisted Content Generation [66.06040950325969]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。