論文の概要: What Do People Think about Sentient AI?
- arxiv url: http://arxiv.org/abs/2407.08867v2
- Date: Mon, 15 Jul 2024 09:39:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 13:31:11.114075
- Title: What Do People Think about Sentient AI?
- Title(参考訳): 集中型AIについて、人々はどう思うか?
- Authors: Jacy Reese Anthis, Janet V. T. Pauketat, Ali Ladak, Aikaterina Manoli,
- Abstract要約: 先進的AIの話題に関する全国的に代表的な調査データを提示する。
2021年に1波、2023年に2波のデータ収集を行い、AIの幸福に対する心の認識と道徳的懸念は予想以上に高かった。
我々は、AIが賢明になるかどうかに関わらず、議論そのものが人間とコンピュータのインタラクションをオーバーホールするかもしれないと論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With rapid advances in machine learning, many people in the field have been discussing the rise of digital minds and the possibility of artificial sentience. Future developments in AI capabilities and safety will depend on public opinion and human-AI interaction. To begin to fill this research gap, we present the first nationally representative survey data on the topic of sentient AI: initial results from the Artificial Intelligence, Morality, and Sentience (AIMS) survey, a preregistered and longitudinal study of U.S. public opinion that began in 2021. Across one wave of data collection in 2021 and two in 2023 (total N = 3,500), we found mind perception and moral concern for AI well-being in 2021 were higher than predicted and significantly increased in 2023: for example, 71% agree sentient AI deserve to be treated with respect, and 38% support legal rights. People have become more threatened by AI, and there is widespread opposition to new technologies: 63% support a ban on smarter-than-human AI, and 69% support a ban on sentient AI. Expected timelines are surprisingly short and shortening with a median forecast of sentient AI in only five years and artificial general intelligence in only two years. We argue that, whether or not AIs become sentient, the discussion itself may overhaul human-computer interaction and shape the future trajectory of AI technologies, including existential risks and opportunities.
- Abstract(参考訳): 機械学習の急速な進歩に伴い、この分野の多くの人々がデジタルマインドの台頭と人工の知覚の可能性について議論している。
AI機能と安全性の今後の発展は、世論と人間とAIの相互作用に依存するだろう。
この研究ギャップを埋めるために、2021年に始まったアメリカの世論の事前登録と縦断調査であるAIMS(Artificial Intelligence, Morality, and Sentience)による最初の調査結果として、知覚AIのトピックに関する全国的に代表的な調査データを提示する。
2021年の1つのデータ収集波と2023年の2つの波(トータルN = 3,500)で、2021年のAIの幸福に対する心の認識と道徳的関心は予測よりも高く、2023年には大幅に増加した。
63%が人間より賢いAIの禁止を支持し、69%が知覚的なAIの禁止を支持している。
予想されるタイムラインは驚くほど短く、わずか5年で知覚的AIの中央値、わずか2年で人工知能の予測が下がった。
AIがセンシティブになるかどうかに関わらず、議論そのものが人間とコンピュータのインタラクションをオーバーホールし、現実的なリスクや機会を含むAI技術の将来の軌道を形作るかもしれない、と私たちは主張する。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Thousands of AI Authors on the Future of AI [1.0717301750064765]
ほとんどの回答者は、AIの進歩の長期的な価値についてかなりの不確実性を示した。
半数以上が、AIに関連する6つのシナリオについて、"実質的"または"極端"の懸念が保証されていることを示唆している。
AIの進歩が人類の未来に良くなるかどうかについては意見の相違があった。
論文 参考訳(メタデータ) (2024-01-05T14:53:09Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Artificial Intelligence and Life in 2030: The One Hundred Year Study on
Artificial Intelligence [74.2630823914258]
このレポートは、AIが今後数年間に影響を及ぼす可能性のある、典型的な都市環境の8つのドメインを調査している。
それは、AIの現状を科学的かつ技術的に正確に描写する一般大衆に提供することを目的としている。
この報告書の費用は、ハーバード大学のBarbara Groszが議長を務めるAI100 Standing Committee(AI100スタンディング委員会)のパネルに提出された。
論文 参考訳(メタデータ) (2022-10-31T18:35:36Z) - Forecasting AI Progress: Evidence from a Survey of Machine Learning
Researchers [0.0]
我々は,AIと機械学習(ML)の研究者による,AIの進歩に関する信念に関する大規模な調査の結果を報告する。
AI/MLの研究者たちは総じて、2060年までに人間レベルのマシンインテリジェンスが達成される確率を50%に設定した。
いくつかの短期的なAIマイルストーンの予測は、時間とともに減少し、AIの進歩に対する楽観性を示唆している。
論文 参考訳(メタデータ) (2022-06-08T19:05:12Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Challenges of Artificial Intelligence -- From Machine Learning and
Computer Vision to Emotional Intelligence [0.0]
AIは人間の支配者ではなく、支援者である、と私たちは信じています。
コンピュータビジョンはAIの開発の中心となっている。
感情は人間の知性の中心であるが、AIではほとんど使われていない。
論文 参考訳(メタデータ) (2022-01-05T06:00:22Z) - Making AI 'Smart': Bridging AI and Cognitive Science [0.0]
認知科学の統合により、人工知能の「人工的な」特徴はすぐに「スマート」に置き換えられるかもしれない
これにより、より強力なAIシステムが開発され、同時に人間の脳がどのように機能するかをよりよく理解できるようになる。
このような高度なシステムを開発するためには、まず人間の脳をよりよく理解する必要があるため、AIが人間の文明を乗っ取る可能性は低いと我々は主張する。
論文 参考訳(メタデータ) (2021-12-31T09:30:44Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - A clarification of misconceptions, myths and desired status of
artificial intelligence [0.0]
我々は,機械学習と統計学に関して,AIの望ましい現状と現状を考察する。
私たちの議論は、AIを取り巻く曖昧さのベールを解明して、その真の数量を見ることを目的としています。
論文 参考訳(メタデータ) (2020-08-03T17:22:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。