論文の概要: The Turing Trap: The Promise & Peril of Human-Like Artificial
Intelligence
- arxiv url: http://arxiv.org/abs/2201.04200v1
- Date: Tue, 11 Jan 2022 21:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 15:01:49.137868
- Title: The Turing Trap: The Promise & Peril of Human-Like Artificial
Intelligence
- Title(参考訳): チューリングトラップ:人間のような人工知能の約束と約束
- Authors: Erik Brynjolfsson
- Abstract要約: 人間のような人工知能の利点には、生産性の上昇、余暇の増加、そしておそらく最も重要なのは、私たちの心をよりよく理解することが含まれる。
しかし、あらゆるタイプのAIが人間に似ているわけではない。実際、最も強力なシステムの多くは、人間とは大きく異なる。
機械が人間の労働の代用となるにつれ、労働者は経済的・政治的交渉力を失う。
対照的に、AIが人間を模倣するのではなく強化することに焦点を当てている場合、人間は創造された価値の共有を主張する力を保持します。
- 参考スコア(独自算出の注目度): 1.9143819780453073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In 1950, Alan Turing proposed an imitation game as the ultimate test of
whether a machine was intelligent: could a machine imitate a human so well that
its answers to questions indistinguishable from a human. Ever since, creating
intelligence that matches human intelligence has implicitly or explicitly been
the goal of thousands of researchers, engineers, and entrepreneurs. The
benefits of human-like artificial intelligence (HLAI) include soaring
productivity, increased leisure, and perhaps most profoundly, a better
understanding of our own minds.
But not all types of AI are human-like. In fact, many of the most powerful
systems are very different from humans. So an excessive focus on developing and
deploying HLAI can lead us into a trap. As machines become better substitutes
for human labor, workers lose economic and political bargaining power and
become increasingly dependent on those who control the technology. In contrast,
when AI is focused on augmenting humans rather than mimicking them, then humans
retain the power to insist on a share of the value created. Furthermore,
augmentation creates new capabilities and new products and services, ultimately
generating far more value than merely human-like AI. While both types of AI can
be enormously beneficial, there are currently excess incentives for automation
rather than augmentation among technologists, business executives, and
policymakers.
- Abstract(参考訳): 1950年、アラン・チューリングは機械が知的かどうかの究極のテストとして模倣ゲームを提案した。
それ以来、人間の知性と一致するインテリジェンスを作ることが、何千人もの研究者、エンジニア、起業家の目標となっている。
human-like artificial intelligence(hlai)のメリットには、生産性の高騰、余暇の増加、そしておそらく最も深く、私たちの心をより深く理解することが含まれる。
しかし、あらゆるタイプのAIが人間に似ているわけではない。
実際、最も強力なシステムの多くは、人間とは大きく異なる。
そのため、HLAIの開発とデプロイに過度な注力が、私たちを罠に陥れさせます。
機械が人間の労働の代用品になるにつれて、労働者は経済的、政治的交渉力を失い、テクノロジーを制御する人々に依存するようになる。
対照的に、AIが人間を模倣するのではなく強化することに焦点を当てている場合、人間は創造された価値の共有を主張する力を保持します。
さらに、強化は新たな機能と新製品やサービスを生み出し、最終的には人間のようなAIよりもはるかに多くの価値を生み出す。
どちらのタイプのAIも非常に有益だが、現在、技術者やビジネスエグゼクティブ、政策立案者の間では、自動化に対する過度のインセンティブがある。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Lifelong learning challenges in the era of artificial intelligence: a computational thinking perspective [0.0]
人工知能(AI)の急速な進歩は、職場での人間とAIのコラボレーションにAIを活用するために必要な教育と労働力のスキルに大きな課題をもたらした。
本稿では,AI時代の生涯学習の課題を,計算的思考の観点から概観する。
論文 参考訳(メタデータ) (2024-05-30T08:46:11Z) - Close the Gates: How we can keep the future human by choosing not to develop superhuman general-purpose artificial intelligence [0.20919309330073077]
今後数年で、人類は汎用AIを作成することによって、不可逆的にしきい値を越えるかもしれない。
これは、人間の社会の中核的な側面を上回り、多くの前例のないリスクを生じさせ、いくつかの意味で制御不能になる可能性がある。
まず、ニューラルネットワークのトレーニングと実行に使用できる計算に厳しい制限を課すことから始めます。
こうした制限がある中で、AIの研究と産業は、人間が理解し制御できる狭義の汎用AIと、そこから大きな利益を享受することのできる汎用AIの両方に焦点を絞ることができる。
論文 参考訳(メタデータ) (2023-11-15T23:41:12Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Natural Selection Favors AIs over Humans [18.750116414606698]
もっとも成功したAIエージェントは、望ましくない特性を持つ可能性が高い、と私たちは主張する。
もしそのようなエージェントが人間の能力を超える知性を持っているなら、人類は未来をコントロールできなくなるかもしれない。
これらのリスクと進化の力に対抗するため、我々はAIエージェントの本質的な動機を慎重に設計するなどの介入を検討する。
論文 参考訳(メタデータ) (2023-03-28T17:59:12Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Challenges of Artificial Intelligence -- From Machine Learning and
Computer Vision to Emotional Intelligence [0.0]
AIは人間の支配者ではなく、支援者である、と私たちは信じています。
コンピュータビジョンはAIの開発の中心となっている。
感情は人間の知性の中心であるが、AIではほとんど使われていない。
論文 参考訳(メタデータ) (2022-01-05T06:00:22Z) - Making AI 'Smart': Bridging AI and Cognitive Science [0.0]
認知科学の統合により、人工知能の「人工的な」特徴はすぐに「スマート」に置き換えられるかもしれない
これにより、より強力なAIシステムが開発され、同時に人間の脳がどのように機能するかをよりよく理解できるようになる。
このような高度なシステムを開発するためには、まず人間の脳をよりよく理解する必要があるため、AIが人間の文明を乗っ取る可能性は低いと我々は主張する。
論文 参考訳(メタデータ) (2021-12-31T09:30:44Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。