論文の概要: Subjective Experience in AI Systems: What Do AI Researchers and the Public Believe?
- arxiv url: http://arxiv.org/abs/2506.11945v1
- Date: Fri, 13 Jun 2025 16:53:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.886249
- Title: Subjective Experience in AI Systems: What Do AI Researchers and the Public Believe?
- Title(参考訳): AIシステムにおける主観的経験:AI研究者と公衆の信頼とは何か?
- Authors: Noemi Dreksler, Lucius Caviola, David Chalmers, Carter Allen, Alex Rand, Joshua Lewis, Philip Waggoner, Kate Mays, Jeff Sebo,
- Abstract要約: 582人のAI研究者と838人の米国代表者を対象に、主観的経験を持つAIシステムの潜在的な発展に関する見解を調査した。
特定の日にそのようなシステムが存在する確率を見積もると、中央値の回答は、2024年までに1%(AI研究者)、5%(パブリック)となった。
一般市民の中央値のメンバーは、主観的経験を持つAIシステムが、中央値のAI研究者(10%)よりも(25%)存在しない可能性が高いと考えた。
- 参考スコア(独自算出の注目度): 0.42131793931438133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We surveyed 582 AI researchers who have published in leading AI venues and 838 nationally representative US participants about their views on the potential development of AI systems with subjective experience and how such systems should be treated and governed. When asked to estimate the chances that such systems will exist on specific dates, the median responses were 1% (AI researchers) and 5% (public) by 2024, 25% and 30% by 2034, and 70% and 60% by 2100, respectively. The median member of the public thought there was a higher chance that AI systems with subjective experience would never exist (25%) than the median AI researcher did (10%). Both groups perceived a need for multidisciplinary expertise to assess AI subjective experience. Although support for welfare protections for such AI systems exceeded opposition, it remained far lower than support for protections for animals or the environment. Attitudes toward moral and governance issues were divided in both groups, especially regarding whether such systems should be created and what rights or protections they should receive. Yet a majority of respondents in both groups agreed that safeguards against the potential risks from AI systems with subjective experience should be implemented by AI developers now, and if created, AI systems with subjective experience should treat others well, behave ethically, and be held accountable. Overall, these results suggest that both AI researchers and the public regard the emergence of AI systems with subjective experience as a possibility this century, though substantial uncertainty and disagreement remain about the timeline and appropriate response.
- Abstract(参考訳): 我々は、主観的な経験を持つAIシステムの潜在的な発展に関する見解と、そのようなシステムをどう扱うべきかについて、主要なAI会場で公開している582人のAI研究者と、全国的に代表される838人の米国参加者を対象に調査を行った。
こうしたシステムが特定の日に存在する確率を見積もると、中央値は2024年までに1%(AI研究者)、5%(パブリック)、2034年までに25%、30%、そして2100年には70%、60%(パブリック)であった。
一般市民の中央値のメンバーは、主観的経験を持つAIシステムが、中央値のAI研究者(10%)よりも(25%)存在しない可能性が高いと考えた。
どちらのグループも、AIの主観的経験を評価するために複数の学際的な専門知識が必要であると感じた。
このようなAIシステムに対する福祉保護の支持は反対を上回ったが、動物や環境に対する保護の支持よりもはるかに低いままであった。
道徳的・統治的な問題に対する態度は2つのグループに分けられ、特にそのような制度が作成されるべきなのか、どのような権利や保護を受けるべきなのか。
しかし、両方のグループの回答者の大多数は、主観的経験を持つAIシステムからの潜在的なリスクに対する保護は、現在AI開発者によって実施されるべきであり、もし作成されたら、主観的経験を持つAIシステムは他人をうまく扱い、倫理的に振舞い、責任を負うべきであることに同意した。
これらの結果は、AI研究者と一般大衆の双方が、今世紀における主観的経験を持つAIシステムの出現を可能性と見なしていることを示唆している。
関連論文リスト
- AI Debate Aids Assessment of Controversial Claims [86.47978525513236]
AIの議論が、新型コロナウイルス(COVID-19)の事実性主張に反対する2つのAIシステムを議論することで、偏見のある裁判官を真実に導くことができるかどうかを調査する。
人間の研究では、2つのAIアドバイザシステムが対立するエビデンスに基づく議論を提示し、判定精度と信頼性の校正を改善していることがわかった。
我々のAIジャッジスタディでは、人間のようなペルソナを持つAIジャッジが、人間のジャッジ(70.1%)とデフォルトのAIジャッジ(69.8%)よりさらに高い精度(78.5%)を達成することが分かりました。
論文 参考訳(メタデータ) (2025-06-02T19:01:53Z) - What do people expect from Artificial Intelligence? Public opinion on alignment in AI moderation from Germany and the United States [0.0]
我々は,ドイツと米国におけるAI対応システムの主要な機能的特徴に対する公的な嗜好に関する2つの調査から得られた証拠を提示する。
我々は,AIモデレーションにおける4種類のアライメント(精度と信頼性,安全性,バイアス緩和,想像の促進)のサポートについて検討する。
どちらの国でも、正確さと安全性は最強の支持を享受する一方、より規範的な目標(公平さや想像力など)はより慎重な支持を受ける。
論文 参考訳(メタデータ) (2025-04-16T20:27:03Z) - Ensuring Fairness with Transparent Auditing of Quantitative Bias in AI Systems [0.30693357740321775]
AIシステムは、意思決定者が不公平な結論を導くバイアスを示す可能性がある。
本稿では,サードパーティの監査官やAIシステムプロバイダによるAIフェアネスの監査を行うフレームワークを提案する。
我々は,AIシステムの体系的な検査を容易にするツールを開発した。
論文 参考訳(メタデータ) (2024-08-24T17:16:50Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Inherent Limitations of AI Fairness [16.588468396705366]
AIフェアネスの研究は、コンピュータ科学、社会科学、法学、哲学と結びついた豊富な研究分野へと急速に発展してきた。
AIフェアネスの測定と達成のための多くの技術的ソリューションが提案されているが、そのアプローチは近年、誤解を招く、非現実的で有害であるとして批判されている。
論文 参考訳(メタデータ) (2022-12-13T11:23:24Z) - A Human-Centric Assessment Framework for AI [11.065260433086024]
説明可能なAIシステムをどのように評価すべきかに関して合意された基準はない。
チューリングテストに触発されて,人間中心のアセスメントフレームワークを導入する。
このセットアップは、広範囲の人間中心のAIシステムアセスメントのためのフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-05-25T12:59:13Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。