論文の概要: Perceptions of Sentient AI and Other Digital Minds: Evidence from the AI, Morality, and Sentience (AIMS) Survey
- arxiv url: http://arxiv.org/abs/2407.08867v3
- Date: Mon, 10 Mar 2025 17:10:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:40:57.250930
- Title: Perceptions of Sentient AI and Other Digital Minds: Evidence from the AI, Morality, and Sentience (AIMS) Survey
- Title(参考訳): AIと他のデジタルマインドの知覚:AI, 道徳, 感覚(AIMS)調査からの証拠
- Authors: Jacy Reese Anthis, Janet V. T. Pauketat, Ali Ladak, Aikaterina Manoli,
- Abstract要約: アメリカ成人の5人に1人は、一部のAIシステムが現在センシティブであり、38%がセンシティブAIの法的権利を支持していると信じている。
2023年の平均的な予測は、知覚的AIがわずか5年で到着するというものだった。
安全で有益なAIの開発には、技術的な研究だけでなく、人間がデジタルマインドと認識し共存する複雑な方法を理解することが必要である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Humans now interact with a variety of digital minds, AI systems that appear to have mental faculties such as reasoning, emotion, and agency, and public figures are discussing the possibility of sentient AI. We present initial results from 2021 and 2023 for the nationally representative AI, Morality, and Sentience (AIMS) survey (N = 3,500). Mind perception and moral concern for AI welfare were surprisingly high and significantly increased: in 2023, one in five U.S. adults believed some AI systems are currently sentient, and 38% supported legal rights for sentient AI. People became more opposed to building digital minds: in 2023, 63% supported banning smarter-than-human AI, and 69% supported banning sentient AI. The median 2023 forecast was that sentient AI would arrive in just five years. The development of safe and beneficial AI requires not just technical study but understanding the complex ways in which humans perceive and coexist with digital minds.
- Abstract(参考訳): 人間は今や様々なデジタルマインドと対話し、推論、感情、エージェンシーといった精神的な能力を持つように見えるAIシステムと対話し、世論は知的なAIの可能性について議論している。
我々は2021年と2023年に、全国的に代表されるAI, Morality, and Sentience (AIMS) 調査(N = 3,500)について、最初の結果を提示する。
2023年、米国の成人の5人に1人が、一部のAIシステムが現在有効であると信じており、38%が知覚的AIに対する法的権利を支持した。
人々がデジタルマインドの構築に反対するようになり、2023年には63%が人間より賢いAIの禁止を支持し、69%が知覚的なAIの禁止を支持した。
2023年の平均的な予測は、知覚的AIがわずか5年で到着するというものだった。
安全で有益なAIの開発には、技術的な研究だけでなく、人間がデジタルマインドと認識し共存する複雑な方法を理解することが必要である。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Thousands of AI Authors on the Future of AI [1.0717301750064765]
ほとんどの回答者は、AIの進歩の長期的な価値についてかなりの不確実性を示した。
半数以上が、AIに関連する6つのシナリオについて、"実質的"または"極端"の懸念が保証されていることを示唆している。
AIの進歩が人類の未来に良くなるかどうかについては意見の相違があった。
論文 参考訳(メタデータ) (2024-01-05T14:53:09Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Artificial Intelligence and Life in 2030: The One Hundred Year Study on
Artificial Intelligence [74.2630823914258]
このレポートは、AIが今後数年間に影響を及ぼす可能性のある、典型的な都市環境の8つのドメインを調査している。
それは、AIの現状を科学的かつ技術的に正確に描写する一般大衆に提供することを目的としている。
この報告書の費用は、ハーバード大学のBarbara Groszが議長を務めるAI100 Standing Committee(AI100スタンディング委員会)のパネルに提出された。
論文 参考訳(メタデータ) (2022-10-31T18:35:36Z) - Forecasting AI Progress: Evidence from a Survey of Machine Learning
Researchers [0.0]
我々は,AIと機械学習(ML)の研究者による,AIの進歩に関する信念に関する大規模な調査の結果を報告する。
AI/MLの研究者たちは総じて、2060年までに人間レベルのマシンインテリジェンスが達成される確率を50%に設定した。
いくつかの短期的なAIマイルストーンの予測は、時間とともに減少し、AIの進歩に対する楽観性を示唆している。
論文 参考訳(メタデータ) (2022-06-08T19:05:12Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Challenges of Artificial Intelligence -- From Machine Learning and
Computer Vision to Emotional Intelligence [0.0]
AIは人間の支配者ではなく、支援者である、と私たちは信じています。
コンピュータビジョンはAIの開発の中心となっている。
感情は人間の知性の中心であるが、AIではほとんど使われていない。
論文 参考訳(メタデータ) (2022-01-05T06:00:22Z) - Making AI 'Smart': Bridging AI and Cognitive Science [0.0]
認知科学の統合により、人工知能の「人工的な」特徴はすぐに「スマート」に置き換えられるかもしれない
これにより、より強力なAIシステムが開発され、同時に人間の脳がどのように機能するかをよりよく理解できるようになる。
このような高度なシステムを開発するためには、まず人間の脳をよりよく理解する必要があるため、AIが人間の文明を乗っ取る可能性は低いと我々は主張する。
論文 参考訳(メタデータ) (2021-12-31T09:30:44Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - A clarification of misconceptions, myths and desired status of
artificial intelligence [0.0]
我々は,機械学習と統計学に関して,AIの望ましい現状と現状を考察する。
私たちの議論は、AIを取り巻く曖昧さのベールを解明して、その真の数量を見ることを目的としています。
論文 参考訳(メタデータ) (2020-08-03T17:22:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。