論文の概要: Understanding support for AI regulation: A Bayesian network perspective
- arxiv url: http://arxiv.org/abs/2507.05866v1
- Date: Tue, 08 Jul 2025 10:47:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.930678
- Title: Understanding support for AI regulation: A Bayesian network perspective
- Title(参考訳): AI規制の理解:ベイジアンネットワークの視点から
- Authors: Andrea Cremaschi, Dae-Jin Lee, Manuele Leonelli,
- Abstract要約: この研究は、2023年のドイツ調査Current Questions on AIから学んだベイジアンネットワークを用いた公衆の態度をモデル化する。
この調査には、AIの関心、暴露、認識された脅威と機会、EU規制の認識、法的制限のサポートに関する変数が含まれている。
規制の意識は情報探索行動によって引き起こされるが、法的要件の支持は、政策の適切性や政治的整合性に強く依存する。
- 参考スコア(独自算出の注目度): 1.8434042562191815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) becomes increasingly embedded in public and private life, understanding how citizens perceive its risks, benefits, and regulatory needs is essential. To inform ongoing regulatory efforts such as the European Union's proposed AI Act, this study models public attitudes using Bayesian networks learned from the nationally representative 2023 German survey Current Questions on AI. The survey includes variables on AI interest, exposure, perceived threats and opportunities, awareness of EU regulation, and support for legal restrictions, along with key demographic and political indicators. We estimate probabilistic models that reveal how personal engagement and techno-optimism shape public perceptions, and how political orientation and age influence regulatory attitudes. Sobol indices and conditional inference identify belief patterns and scenario-specific responses across population profiles. We show that awareness of regulation is driven by information-seeking behavior, while support for legal requirements depends strongly on perceived policy adequacy and political alignment. Our approach offers a transparent, data-driven framework for identifying which public segments are most responsive to AI policy initiatives, providing insights to inform risk communication and governance strategies. We illustrate this through a focused analysis of support for AI regulation, quantifying the influence of political ideology, perceived risks, and regulatory awareness under different scenarios.
- Abstract(参考訳): 人工知能(AI)が公的な生活や私的な生活に浸透するにつれ、市民がそのリスク、利益、規制のニーズをどのように知覚するかを理解することが不可欠である。
この研究は、欧州連合(EU)が提案するAI法(AI Act)のような、進行中の規制上の取り組みを知らせるために、2023年のドイツ代表によるAIに関する調査から学んだベイジアンネットワークを使用した公衆の態度をモデル化する。
この調査には、AIの関心、露出、認識された脅威と機会、EU規制の認識、法的な制限のサポート、および重要な人口統計学的および政治的指標に関する変数が含まれている。
我々は、個人的エンゲージメントとテクノ・オプティミズムが公共の認識をどのように形成し、政治的指向と年齢が規制態度にどのように影響するかを明らかにする確率モデルを推定する。
ソボの指標と条件推論は、人口プロファイル全体にわたる信念パターンとシナリオ固有の反応を識別する。
規制の意識は情報探索行動によって引き起こされるが、法的要件の支持は、政策の適切性や政治的整合性に強く依存する。
当社のアプローチは、AIポリシイニシアチブに最も反応する公共セグメントを特定するための透過的でデータ駆動型のフレームワークを提供し、リスクコミュニケーションとガバナンス戦略に関する情報を提供する。
我々は、AI規制のサポートの焦点分析、政治的イデオロギーの影響の定量化、リスク認識、異なるシナリオ下での規制意識などを通してこれを説明します。
関連論文リスト
- Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Local US officials' views on the impacts and governance of AI: Evidence from 2022 and 2023 survey waves [1.124958340749622]
本稿では、米国の政策立案者のAIの将来的影響と規制に関する見解について調査する。
地域社会や国家に対するAIの影響に関する政策立案者の期待に対する洞察を提供する。
ChatGPTのリリースとその後のAIに対する大衆の認識の高まりを受けて、態度の変化を捉えている。
論文 参考訳(メタデータ) (2025-01-16T15:25:58Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Generative AI in EU Law: Liability, Privacy, Intellectual Property, and Cybersecurity [1.9806397201363817]
本稿では、欧州連合の文脈におけるジェネレーティブAIと大規模言語モデル(LLM)の法的および規制的意味について述べる。
責任、プライバシー、知的財産権、サイバーセキュリティの側面を分析する。
生成モデルの安全性とコンプライアンスを保証するためのレコメンデーションを提案している。
論文 参考訳(メタデータ) (2024-01-14T19:16:29Z) - Artificial Intelligence across Europe: A Study on Awareness, Attitude
and Trust [39.35990066478082]
この研究の目的は、ヨーロッパの文脈における人々の見解や認識をよりよく理解することである。
我々は,人々の意識,態度,信頼の3つの側面から構築された新しいアンケート(PAICE)を設計し,検証した。
暗黙の矛盾を強調し、信頼のエコシステムの形成を妨げる可能性のあるトレンドを特定します。
論文 参考訳(メタデータ) (2023-08-19T11:00:32Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。