論文の概要: Lost in Translation: Policymakers are not really listening to Citizen Concerns about AI
- arxiv url: http://arxiv.org/abs/2510.20568v1
- Date: Thu, 23 Oct 2025 13:57:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.032009
- Title: Lost in Translation: Policymakers are not really listening to Citizen Concerns about AI
- Title(参考訳): AIに関する市民の懸念に、政策立案者は耳を傾けていない
- Authors: Susan Ariel Aaronson, Michael Moreno,
- Abstract要約: 政府はAIに関する一般のコメントを募集しているが、その入力をポリシーに翻訳するにつれて、市民の発言の多くが失われている。
本稿は、市民にAIのリスクと政策についてコメントするよう促したオーストラリア、コロンビア、米国の三国を比較した。
各国では、人口の1%未満が参加している。
当局者は、受け取ったフィードバックに対する応答性に制限があることを示し、効果的なフィードバックループを作成しなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The worlds people have strong opinions about artificial intelligence (AI), and they want policymakers to listen. Governments are inviting public comment on AI, but as they translate input into policy, much of what citizens say is lost. Policymakers are missing a critical opportunity to build trust in AI and its governance. This paper compares three countries, Australia, Colombia, and the United States, that invited citizens to comment on AI risks and policies. Using a landscape analysis, the authors examined how each government solicited feedback and whether that input shaped governance. Yet in none of the three cases did citizens and policymakers establish a meaningful dialogue. Governments did little to attract diverse voices or publicize calls for comment, leaving most citizens unaware or unprepared to respond. In each nation, fewer than one percent of the population participated. Moreover, officials showed limited responsiveness to the feedback they received, failing to create an effective feedback loop. The study finds a persistent gap between the promise and practice of participatory AI governance. The authors conclude that current approaches are unlikely to build trust or legitimacy in AI because policymakers are not adequately listening or responding to public concerns. They offer eight recommendations: promote AI literacy; monitor public feedback; broaden outreach; hold regular online forums; use innovative engagement methods; include underrepresented groups; respond publicly to input; and make participation easier.
- Abstract(参考訳): 世界の人々は人工知能(AI)について強い意見を持ち、政策立案者に耳を傾けることを望んでいる。
政府はAIに関する一般のコメントを募集しているが、その入力をポリシーに翻訳するにつれて、市民の発言の多くが失われている。
政策立案者は、AIとそのガバナンスを信頼する重要な機会を欠いている。
本稿は、市民にAIのリスクと政策についてコメントするよう促したオーストラリア、コロンビア、米国の三国を比較した。
著者らはランドスケープ分析を用いて、各政府がどのようにフィードバックを求め、その入力がガバナンスを形作るかを検討した。
しかし、この3件の中で市民や政策立案者が意味のある対話を確立することは無かった。
政府は様々な声を惹きつけたり、コメントを求めたりすることはほとんどなく、ほとんどの市民は反応する準備が出来なかった。
各国では、人口の1%未満が参加している。
さらに、担当者は受け取ったフィードバックに対する応答性に制限があることを示し、効果的なフィードバックループを作成しなかった。
この研究は、参加型AIガバナンスの約束と実践の間に永続的なギャップを見出している。
著者らは、政策立案者は公共の懸念に十分に耳を傾けたり応じたりしていないため、現在のアプローチがAIの信頼や正当性を構築する可能性は低いと結論付けている。
AIリテラシーの促進、公開フィードバックの監視、アウトリーチの拡大、定期的なオンラインフォーラムの開催、革新的なエンゲージメント手法の使用、不足したグループを含むこと、インプットへの公開対応、参加の容易化。
関連論文リスト
- Advancing Science- and Evidence-based AI Policy [163.43609502905707]
本稿では,AIの機会と課題に対処するために,エビデンスと政策の関係を最適化する方法の課題に取り組む。
i)AIのリスクとその効果的な緩和に関する研究、または(ii)これらのリスクに対処するための政策を提唱することで、この問題に対処する努力が増えている。
論文 参考訳(メタデータ) (2025-08-02T23:20:58Z) - What do people expect from Artificial Intelligence? Public opinion on alignment in AI moderation from Germany and the United States [0.0]
我々は,ドイツと米国におけるAI対応システムの主要な機能的特徴に対する公的な嗜好に関する2つの調査から得られた証拠を提示する。
我々は,AIモデレーションにおける4種類のアライメント(精度と信頼性,安全性,バイアス緩和,想像の促進)のサポートについて検討する。
どちらの国でも、正確さと安全性は最強の支持を享受する一方、より規範的な目標(公平さや想像力など)はより慎重な支持を受ける。
論文 参考訳(メタデータ) (2025-04-16T20:27:03Z) - Artificial Intelligence in Deliberation: The AI Penalty and the Emergence of a New Deliberative Divide [0.0]
デジタル審議は民主的参加を拡大したが、課題は残る。
人工知能(AI)の最近の進歩は潜在的な解決策を提供するが、熟考におけるAIの役割に対する大衆の認識はいまだに過小評価されている。
AIが熟考、公的な信頼、受け入れ、参加意欲に統合される場合、影響される可能性がある。
論文 参考訳(メタデータ) (2025-03-10T16:33:15Z) - How will advanced AI systems impact democracy? [16.944248678780614]
生成的人工知能が民主的プロセスに与える影響について論じる。
我々は、AIが選挙のような民主的なメカニズムを不安定化または支援するためにどのように使われるか尋ねる。
最後に、AIが民主主義の原則を強化するか弱めるかについて議論する。
論文 参考訳(メタデータ) (2024-08-27T12:05:59Z) - Artificial Intelligence in Election Campaigns: Perceptions, Penalties, and Implications [44.99833362998488]
AI利用の3つのカテゴリ – キャンペーンオペレーション,投票者アウトリーチ,詐欺 – を特定します。
人々は一般的に、キャンペーンでAIを嫌うが、特に詐欺的使用には批判的であり、彼らは標準違反として認識している。
騙しAIの使用は、AI開発を完全に禁止することを含む、より厳格なAI規制に対する公的なサポートを増加させる。
論文 参考訳(メタデータ) (2024-08-08T12:58:20Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。