論文の概要: Realist and Pluralist Conceptions of Intelligence and Their Implications on AI Research
- arxiv url: http://arxiv.org/abs/2511.15282v1
- Date: Wed, 19 Nov 2025 09:48:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.738497
- Title: Realist and Pluralist Conceptions of Intelligence and Their Implications on AI Research
- Title(参考訳): AI研究におけるインテリジェンスの概念とその意味
- Authors: Ninell Oldenburg, Ruchira Dhar, Anders Søgaard,
- Abstract要約: 私たちは、現在のAI研究は2つの異なるインテリジェンスの概念のスペクトルで動いていると論じます。
これらの概念はインテリジェンス・リアリズムとインテリジェンス・プラナリズムである。
これらの前提を明確化することは、AI研究における不一致の明確化に寄与する、と我々は主張する。
- 参考スコア(独自算出の注目度): 33.46616462561506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we argue that current AI research operates on a spectrum between two different underlying conceptions of intelligence: Intelligence Realism, which holds that intelligence represents a single, universal capacity measurable across all systems, and Intelligence Pluralism, which views intelligence as diverse, context-dependent capacities that cannot be reduced to a single universal measure. Through an analysis of current debates in AI research, we demonstrate how the conceptions remain largely implicit yet fundamentally shape how empirical evidence gets interpreted across a wide range of areas. These underlying views generate fundamentally different research approaches across three areas. Methodologically, they produce different approaches to model selection, benchmark design, and experimental validation. Interpretively, they lead to contradictory readings of the same empirical phenomena, from capability emergence to system limitations. Regarding AI risk, they generate categorically different assessments: realists view superintelligence as the primary risk and search for unified alignment solutions, while pluralists see diverse threats across different domains requiring context-specific solutions. We argue that making explicit these underlying assumptions can contribute to a clearer understanding of disagreements in AI research.
- Abstract(参考訳): インテリジェンス・リアリズム(インテリジェンス・リアリズム、インテリジェンス・リアリズム、インテリジェンス:インテリジェンス・リアリズム、インテリジェンス:インテリジェンス:インテリジェンス・リアリズム、インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス・リアリズム:インテリジェンス:インテリジェンス・リアリズム:インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス;インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス;インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス:インテリジェンス
AI研究における現在の議論の分析を通じて、どのように概念が暗黙的のままでありながら、実証的な証拠が広範囲にわたってどのように解釈されるかを根本的に形作っているかを実証する。
これらの根底にある見解は、3つの領域にわたる根本的に異なる研究アプローチを生み出している。
方法論的には、モデル選択、ベンチマーク設計、実験的検証に対する異なるアプローチを生成する。
解釈上は、能力の出現からシステム制限まで、同じ経験的現象の矛盾した読解につながる。
AIリスクに関して、それらは分類学的に異なる評価を生成する。現実主義者は超知能を主要なリスクとみなし、統一されたアライメントソリューションを探す。
これらの前提を明確化することは、AI研究における不一致の明確化に寄与する、と我々は主張する。
関連論文リスト
- The Stories We Govern By: AI, Risk, and the Power of Imaginaries [0.0]
本稿では,人工知能(AI)の社会技術的想像力の競合が,ガバナンス決定や規制制約をいかに形成するかを検討する。
我々は、破滅的なAGIシナリオを強調する現実的リスク擁護者、AIを解き放たれる変革的な力として描写する加速主義者、今日の体系的不平等に根ざした害を先導する批判的なAI学者の3つの主要な物語群を分析した。
これらの物語が、リスクに関する異なる仮定を組み込んでおり、代替ガバナンスアプローチの空間を狭めることで、政策策定プロセスに進展する可能性があることを、我々の研究で明らかにしている。
論文 参考訳(メタデータ) (2025-08-15T09:57:56Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - OlympicArena: Benchmarking Multi-discipline Cognitive Reasoning for Superintelligent AI [73.75520820608232]
我々は,11,163のバイリンガル問題を含む,テキストのみとインターリーブされたテキストイメージのモダリティを紹介する。
これらの課題には、7つのフィールドと62の国際オリンピック大会にわたる幅広い規律が含まれており、データ漏洩について厳格に調査されている。
我々の評価によると、GPT-4oのような先進モデルでさえ、複雑な推論とマルチモーダル統合における現在のAI制限を反映して、全体的な精度は39.97%しか達成していない。
論文 参考訳(メタデータ) (2024-06-18T16:20:53Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - General Purpose Artificial Intelligence Systems (GPAIS): Properties,
Definition, Taxonomy, Societal Implications and Responsible Governance [16.030931070783637]
汎用人工知能システム(GPAIS)は、これらのAIシステムを指すものとして定義されている。
これまで、人工知能の可能性は、まるで人間であるかのように知的タスクを実行するのに十分強力であり、あるいはそれを改善することさえ可能であり、いまだに願望、フィクションであり、我々の社会にとっての危険であると考えられてきた。
本研究は,GPAISの既存の定義について論じ,その特性や限界に応じて,GPAISの種類間で段階的な分化を可能にする新しい定義を提案する。
論文 参考訳(メタデータ) (2023-07-26T16:35:48Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - (Im)possibility of Collective Intelligence [6.922375282367237]
この研究は、不均一環境における唯一の有理学習アルゴリズムが経験的リスク最小化(ERM)である直感的かつ合理的な公理の観点から最小限の要件を提供する。
我々の可能性の結果は、あらゆるアルゴリズムが集団知性(CI)を達成するために直面する基本的なトレードオフを裏付けるものです。
最終的には、異種環境における集合学習は本質的に困難である。なぜなら、アウト・オブ・ディストリビューションの一般化、フェデレーション/コラボレーション学習、アルゴリズムフェアネス、マルチモーダル学習といった機械学習の重要な領域において、環境間のモデル予測性能を有意義に比較することは不可能である。
論文 参考訳(メタデータ) (2022-06-05T07:58:39Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Transdisciplinary AI Observatory -- Retrospective Analyses and
Future-Oriented Contradistinctions [22.968817032490996]
本稿では、本質的に学際的なAI観測アプローチの必要性を動機づける。
これらのAI観測ツールに基づいて、我々はAIの安全性に関する短期的な学際的ガイドラインを提示する。
論文 参考訳(メタデータ) (2020-11-26T16:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。