論文の概要: From Catastrophic to Concrete: Reframing AI Risk Communication for Public Mobilization
- arxiv url: http://arxiv.org/abs/2511.06525v1
- Date: Sun, 09 Nov 2025 20:28:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.989477
- Title: From Catastrophic to Concrete: Reframing AI Risk Communication for Public Mobilization
- Title(参考訳): 破滅からコンクリートへ:公的なモビリティのためのAIリスクコミュニケーションのフレーミング
- Authors: Philip Trippenbach, Isabella Scala, Jai Bhambra, Rowan Emslie,
- Abstract要約: 近親相姦という観点で考えると、AIに対する公衆の懸念が高まることが示される。
これらの日常的な懸念を取り巻く動員は、AIの政治的サリエンスを高めることができると我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Effective governance of artificial intelligence (AI) requires public engagement, yet communication strategies centered on existential risk have not produced sustained mobilization. In this paper, we examine the psychological and opinion barriers that limit engagement with extinction narratives, such as mortality avoidance, exponential growth bias, and the absence of self-referential anchors. We contrast them with evidence that public concern over AI rises when framed in terms of proximate harms such as employment disruption, relational instability, and mental health issues. We validate these findings through actual message testing with 1063 respondents, with the evidence showing that AI risks to Jobs and Children have the highest potential to mobilize people, while Existential Risk is the lowest-performing theme across all demographics. Using survey data from five countries, we identify two segments (Tech-Positive Urbanites and World Guardians) as particularly receptive to such framing and more likely to participate in civic action. Finally, we argue that mobilization around these everyday concerns can raise the political salience of AI, creating "policy demand" for structural measures to mitigate AI risks. We conclude that this strategy creates the conditions for successful regulatory change.
- Abstract(参考訳): 人工知能(AI)の効果的なガバナンスは公的な関与を必要とするが、現実的なリスクを中心としたコミュニケーション戦略は持続的な動員を生み出していない。
本稿では,死亡回避,指数的成長バイアス,自己参照型アンカーの欠如など,絶滅物語への関与を制限する心理的・意見障壁について検討する。
我々は、雇用の混乱、リレーショナル不安定、メンタルヘルス問題といった、近親相姦的な害の観点で考えると、AIに対する公衆の懸念が高まるという証拠と対比する。
これらの発見を1063人の回答者による実際のメッセージテストを通じて検証し、雇用と子供のAIリスクが人々を動員する最も高い可能性を示す証拠とともに、現実的リスクはすべての人口層で最も低いパフォーマンスのテーマであることを示した。
5か国からの調査データを用いて、このようなフレーミングを受容し、市民行動に参加する可能性がより高い2つのセグメント(Tech-Positive UrbanitesとWorld Guardians)を識別する。
最後に、これらの日々の懸念を取り巻く動員は、AIの政治的サリエンスを高め、AIのリスクを軽減するための構造的措置の「政治的要求」を創り出すことができると論じる。
我々は、この戦略が規制変更を成功させる条件を生み出していると結論づける。
関連論文リスト
- "We are not Future-ready": Understanding AI Privacy Risks and Existing Mitigation Strategies from the Perspective of AI Developers in Europe [56.1653658714305]
ヨーロッパを拠点とする25人のAI開発者を対象にインタビューを行い、ユーザ、開発者、ビジネスに最もリスクをもたらすと彼らが信じているプライバシの脅威を理解しました。
プライバシリスクの相対的なランク付けに関して、AI開発者の間ではほとんど合意が得られていないことが分かっています。
AI開発者はこれらのリスクに対処するために提案された緩和戦略を認識しているが、彼らは最小限の現実的採用を報告した。
論文 参考訳(メタデータ) (2025-10-01T13:51:33Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Advancing Science- and Evidence-based AI Policy [163.43609502905707]
本稿では,AIの機会と課題に対処するために,エビデンスと政策の関係を最適化する方法の課題に取り組む。
i)AIのリスクとその効果的な緩和に関する研究、または(ii)これらのリスクに対処するための政策を提唱することで、この問題に対処する努力が増えている。
論文 参考訳(メタデータ) (2025-08-02T23:20:58Z) - Perception Gaps in Risk, Benefit, and Value Between Experts and Public Challenge Socially Accepted AI [0.0]
本研究は,一般のAI専門家がAIの能力と影響をどう認識するかを検討する。
シナリオは、持続可能性、医療、仕事のパフォーマンス、社会的不平等、芸術、戦争といった領域にまたがる。
専門家は、常に高い確率を予測し、リスクを知覚し、より多くの利益を報告し、非専門家よりもAIに対する肯定的な感情を表現する。
論文 参考訳(メタデータ) (2024-12-02T12:51:45Z) - Implications for Governance in Public Perceptions of Societal-scale AI Risks [0.29022435221103454]
投票者は、AIのリスクは専門家よりも可能性が高く影響も大きいと認識し、AI開発を遅くすることを主張する。
政策介入は、社会規模リスクの全てのクラスにまたがる緩和努力をより慎重にバランスを取ろうとすれば、集団の懸念を和らげるのがよい。
論文 参考訳(メタデータ) (2024-06-10T11:52:25Z) - AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。