論文の概要: Public Opinion and The Rise of Digital Minds: Perceived Risk, Trust, and Regulation Support
- arxiv url: http://arxiv.org/abs/2504.21849v1
- Date: Wed, 30 Apr 2025 17:56:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 17:26:35.112069
- Title: Public Opinion and The Rise of Digital Minds: Perceived Risk, Trust, and Regulation Support
- Title(参考訳): デジタルマインドの台頭と世論 : リスク・信頼・規制支援の認識
- Authors: Justin B. Bullock, Janet V. T. Pauketat, Hsini Huang, Yi-Fan Wang, Jacy Reese Anthis,
- Abstract要約: 本研究では,機関やAI技術に対する公的な信頼と,認識されるリスク,AI規制の形式的嗜好について検討する。
政府への信頼が高い人は規制を支持するが、AI企業やAI技術への信頼が高い人は規制を支持する傾向が低い。
- 参考スコア(独自算出の注目度): 4.982210700018631
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Governance institutions must respond to societal risks, including those posed by generative AI. This study empirically examines how public trust in institutions and AI technologies, along with perceived risks, shape preferences for AI regulation. Using the nationally representative 2023 Artificial Intelligence, Morality, and Sentience (AIMS) survey, we assess trust in government, AI companies, and AI technologies, as well as public support for regulatory measures such as slowing AI development or outright bans on advanced AI. Our findings reveal broad public support for AI regulation, with risk perception playing a significant role in shaping policy preferences. Individuals with higher trust in government favor regulation, while those with greater trust in AI companies and AI technologies are less inclined to support restrictions. Trust in government and perceived risks significantly predict preferences for both soft (e.g., slowing development) and strong (e.g., banning AI systems) regulatory interventions. These results highlight the importance of public opinion in AI governance. As AI capabilities advance, effective regulation will require balancing public concerns about risks with trust in institutions. This study provides a foundational empirical baseline for policymakers navigating AI governance and underscores the need for further research into public trust, risk perception, and regulatory strategies in the evolving AI landscape.
- Abstract(参考訳): ガバナンス機関は、生成的AIによって引き起こされるような社会的リスクに対応する必要がある。
この研究は、組織やAI技術に対する公的な信頼と、認識されるリスク、AI規制の形状的嗜好を実証的に検証する。
2023年に代表される人工知能、モラル、センチエンス(AIMS)調査を用いて、政府、AI企業、AI技術の信頼度を評価し、AI開発を遅らせたり、高度なAIを全面的に禁止するといった規制措置に対する公的支援を行う。
以上の結果から,リスク認識が政策選好の形成に重要な役割を担っていることが示唆された。
政府への信頼が高い人は規制を支持するが、AI企業やAI技術への信頼が高い人は規制を支持する傾向が低い。
政府への信頼と認識されたリスクは、ソフト(例えば、開発速度の低下)と強力な(例えば、AIシステムの禁止)規制介入の両方の好みを著しく予測する。
これらの結果は、AIガバナンスにおける世論の重要性を強調している。
AIの能力が進歩するにつれて、効果的な規制は、リスクに関する公共の懸念と機関の信頼とのバランスを必要とする。
この研究は、AIガバナンスをナビゲートする政策立案者のための基礎的な実証的ベースラインを提供し、進化するAIの展望において、公衆の信頼、リスク認識、規制戦略に関するさらなる研究の必要性を強調している。
関連論文リスト
- Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Regulating AI-Based Remote Biometric Identification. Investigating the Public Demand for Bans, Audits, and Public Database Registrations [0.0]
この研究は、AI技術の規制の要求につながる可能性のある潜在的な要因として、AIに対する信頼と法執行への信頼の役割に焦点を当てている。
我々は、差別に対する認識がより強い規制の要求につながる一方で、AIへの信頼と法執行機関への信頼は、RBIシステムに対する規制の要求に関して反対の効果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:22:33Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Ethics and Governance of Artificial Intelligence: Evidence from a Survey
of Machine Learning Researchers [0.0]
機械学習(ML)と人工知能(AI)の研究者は、AIの倫理とガバナンスにおいて重要な役割を果たす。
トップクラスのAI/MLカンファレンスで公開した人々の調査を行った。
AI/MLの研究者たちは、国際組織や科学組織に対して高いレベルの信頼を置いている。
論文 参考訳(メタデータ) (2021-05-05T15:23:12Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - U.S. Public Opinion on the Governance of Artificial Intelligence [0.0]
既存の研究では、新興技術の規制を形成する上で、公共の機関に対する信頼が大きな役割を果たすことが示されている。
我々は、13のAIガバナンス課題に対するアメリカ人の認識と、AIを責任を持って開発・管理するための政府、企業、およびマルチステークホルダー機関への信頼について検討した。
論文 参考訳(メタデータ) (2019-12-30T07:38:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。