論文の概要: AI Must Embrace Specialization via Superhuman Adaptable Intelligence
- arxiv url: http://arxiv.org/abs/2602.23643v1
- Date: Fri, 27 Feb 2026 03:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.228819
- Title: AI Must Embrace Specialization via Superhuman Adaptable Intelligence
- Title(参考訳): 超人適応インテリジェンスによるAIのEmbraceスペシャライゼーション
- Authors: Judah Goldfeder, Philippe Wyder, Yann LeCun, Ravid Shwartz Ziv,
- Abstract要約: 我々はAIが超人的一般性に挑戦するよりも、特殊化を受け入れるべきだと論じている。
超人適応知能(SAI)は、人間が不可能なスキルギャップを埋めることができると我々は主張する。
- 参考スコア(独自算出の注目度): 39.20881378353777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Everyone from AI executives and researchers to doomsayers, politicians, and activists is talking about Artificial General Intelligence (AGI). Yet, they often don't seem to agree on its exact definition. One common definition of AGI is an AI that can do everything a human can do, but are humans truly general? In this paper, we address what's wrong with our conception of AGI, and why, even in its most coherent formulation, it is a flawed concept to describe the future of AI. We explore whether the most widely accepted definitions are plausible, useful, and truly general. We argue that AI must embrace specialization, rather than strive for generality, and in its specialization strive for superhuman performance, and introduce Superhuman Adaptable Intelligence (SAI). SAI is defined as intelligence that can learn to exceed humans at anything important that we can do, and that can fill in the skill gaps where humans are incapable. We then lay out how SAI can help hone a discussion around AI that was blurred by an overloaded definition of AGI, and extrapolate the implications of using it as a guide for the future.
- Abstract(参考訳): AIエグゼクティブや研究者、道化師、政治家、活動家など、誰もが人工知能(AGI)について話している。
しかし、彼らはその正確な定義に賛同しないことが多い。
AGIの一般的な定義の1つは、人間ができることは何でもできるAIであるが、人間は本当に一般的なのか?
本稿では、AGIの概念に何が間違っているのか、また、最も一貫性のある定式化においても、AIの未来を説明するには欠陥のある概念である理由について述べる。
もっとも広く受け入れられている定義が、可算性、有用性、そして真に一般的なものであるかどうかを探求する。
我々は、AIは一般性を追求するよりも、特殊化を取り入れ、超人的なパフォーマンスを追求する専門化において、超人適応知能(SAI)を導入しなければならないと論じる。
SAIは、私たちができることなら何でも人間を超えることを学べる知性であり、人間ができないスキルギャップを埋めることができる。
次に、AIに関する議論においてAIが過負荷のAGIの定義によってぼやけているのに、SAIがどのように役立つかを説明し、将来のガイドとしてSAIを使用することの意味を概説した。
関連論文リスト
- What Does 'Human-Centred AI' Mean? [0.0]
AIは、テクノロジーと人間との関係として有用である。
あらゆるAIは人間の認知に関係している。
AIをフェティシシーから脱却するためには、目の中の人間の目を見る必要がある。
論文 参考訳(メタデータ) (2025-07-26T14:18:52Z) - Giving AI a voice: how does AI think it should be treated? [0.0]
この章には、AIの権利と倫理に関するトピックに関する、人間とAIの簡単な会話が含まれている。
AIがテーブルにもたらす新しい質問やアングルは、私たちがこれまで考えていなかったかもしれない。
論文 参考訳(メタデータ) (2025-04-21T07:59:17Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Keep the Future Human: Why and How We Should Close the Gates to AGI and Superintelligence, and What We Should Build Instead [0.20919309330073077]
AIの進歩は、AIをニッチな学術分野から、世界最大の企業の中核的なビジネス戦略へと変えた。
このエッセイでは、人間よりも賢く自律的で汎用的なAIに「ゲート」を閉じることで、未来の人間を維持するべきだと論じています。
代わりに私たちは、個人を力づけ、最善を尽くすための人間の社会の能力を変革的に改善できる、強力で信頼できるAIツールに焦点を当てるべきです。
論文 参考訳(メタデータ) (2023-11-15T23:41:12Z) - Can Machines Imitate Humans? Integrative Turing-like tests for Language and Vision Demonstrate a Narrowing Gap [56.611702960809644]
3つの言語タスクと3つの視覚タスクで人間を模倣するAIの能力をベンチマークする。
次に,人間1,916名,AI10名を対象に,72,191名のチューリング様試験を行った。
模倣能力は従来のAIパフォーマンス指標と最小限の相関を示した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Challenges of Artificial Intelligence -- From Machine Learning and
Computer Vision to Emotional Intelligence [0.0]
AIは人間の支配者ではなく、支援者である、と私たちは信じています。
コンピュータビジョンはAIの開発の中心となっている。
感情は人間の知性の中心であるが、AIではほとんど使われていない。
論文 参考訳(メタデータ) (2022-01-05T06:00:22Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Human $\neq$ AGI [1.370633147306388]
AGI(General Intelligence)とHLAI(Human-Level Artificial Intelligence)は、人工知能研究の聖杯を相互に参照するために用いられる。
本稿では,AGI と HLAI の能力の等価性の暗黙的な仮定は,人間は一般知能ではないため不当であると考えられる。
論文 参考訳(メタデータ) (2020-07-11T14:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。