論文の概要: Governing rapid technological change: Policy Delphi on the future of European AI governance
- arxiv url: http://arxiv.org/abs/2512.15196v1
- Date: Wed, 17 Dec 2025 08:46:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.905087
- Title: Governing rapid technological change: Policy Delphi on the future of European AI governance
- Title(参考訳): 急激な技術変革を乗り越える - 欧州のAIガバナンスの将来をテーマに
- Authors: Atte Ojanen, Johannes Anttila, Thilo H. K. Thelitz, Anna Bjork,
- Abstract要約: デルフィ法は、新興技術問題に対するコンセンサスと意見の相違を識別する確立された方法となっている。
この記事では、ヨーロッパにおけるAIガバナンスの発展において、専門家が見る重要な緊張関係について考察する。
また、AIのような新興技術の予測的ガバナンスを通知するDelphiメソッドの能力も反映している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancements in artificial intelligence (AI) present unique challenges for policymakers that seek to govern the technology. In this context, the Delphi method has become an established way to identify consensus and disagreement on emerging technological issues among experts in the field of futures studies and foresight. The aim of this article is twofold: first, it examines key tensions experts see in the development of AI governance in Europe, and second, it reflects on the Delphi method's capacity to inform anticipatory governance of emerging technologies like AI based on these insights. The analysis is based on the results of a two-round Policy Delphi study on the future of AI governance with European policymakers, researchers and NGOs, conducted in mid-2024. The Policy Delphi proved useful in revealing diverse perspectives on European AI governance, drawing out a consensus that future-proof AI regulation will likely depend more on practical implementation and enforcement of legislation than on its technical specifics or scope. Furthermore, the study identified a desirability-probability gap in AI governance: desirable policy directions, like greater citizen participation, were perceived as less probable and feasible. This highlights a tension between desirable regulatory oversight and the practical difficulty for regulation to keep up with technological change.
- Abstract(参考訳): 人工知能(AI)の急速な進歩は、テクノロジーを統治しようとする政策立案者にユニークな課題をもたらす。
この文脈において、デルフィ法は、将来の研究と展望の分野の専門家の間で、新たな技術課題に関するコンセンサスと不一致を識別するための確立された方法となっている。
第一に、ヨーロッパにおけるAIガバナンスの発展において専門家が見る重要な緊張関係を調べ、第二に、これらの洞察に基づいてAIのような新興テクノロジの予測的ガバナンスを通知するDelphiメソッドの能力について考察する。
この分析は、2024年半ばに行われた欧州の政策立案者、研究者、NGOによるAIガバナンスの将来に関する2回にわたる政策デルフィの研究の結果に基づいている。
Policy Delphiは、欧州のAIガバナンスに関するさまざまな視点を明らかにする上で有用であることが証明され、将来のAI規制は、その技術的特質や範囲よりも、実践的な実施と施行に依存する可能性が高いというコンセンサスを引き合いに出した。
さらに、この研究はAIガバナンスにおける望ましくない可能性のギャップを明らかにした。
これは、望ましい規制監督と、技術的変化に追従する規制の実践的困難との間の緊張を浮き彫りにする。
関連論文リスト
- Uncovering AI Governance Themes in EU Policies using BERTopic and Thematic Analysis [0.5321738009179028]
欧州連合(EU)はそのような政策やガイドラインの開発において重要な役割を担っている。
HLEGは信頼できるAIのための影響力のあるガイドラインを発行し、2024年にはEU AI法が採択された。
EUの方針とガイドラインは一致することが期待されているが、その範囲、重点分野、規範の度合い、AIに関する優先順位が異なるかもしれない。
論文 参考訳(メタデータ) (2025-09-16T12:20:07Z) - Advancing Science- and Evidence-based AI Policy [163.43609502905707]
本稿では,AIの機会と課題に対処するために,エビデンスと政策の関係を最適化する方法の課題に取り組む。
i)AIのリスクとその効果的な緩和に関する研究、または(ii)これらのリスクに対処するための政策を提唱することで、この問題に対処する努力が増えている。
論文 参考訳(メタデータ) (2025-08-02T23:20:58Z) - The AI Policy Module: Developing Computer Science Student Competency in AI Ethics and Policy [1.724936122482754]
第二級のコンピューティングカリキュラムは、将来のAI実践者を準備するのに不適格である。
我々は,AI政策の議論をコンピュータサイエンスカリキュラムに導入するAIポリシーモジュールを開発した。
我々は,AI政策モジュール2.0のパイロットによる成果を提示し,AI倫理と政策に対する学生の態度を評価する。
論文 参考訳(メタデータ) (2025-06-18T17:09:58Z) - AI Governance in the Context of the EU AI Act: A Bibliometric and Literature Review Approach [0.0]
本研究は、EU AI Actの枠組みにおけるAIガバナンスの研究動向を分析した。
我々の研究結果によると、特にEUのAI法で規制されているAIシステムに関するAIガバナンスの研究は、より広範なAI研究の状況と比較しても比較的限られている。
論文 参考訳(メタデータ) (2025-01-08T11:01:11Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers [8.82540441326446]
透明性、説明責任、プライバシは、AI倫理の最も重要な原則です。
倫理的知識の不足、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
論文 参考訳(メタデータ) (2022-06-30T17:24:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The ghost of AI governance past, present and future: AI governance in
the European Union [0.0]
EUは倫理的、信頼できる技術開発を保証し、奨励している。
第1節は、EUのAIガバナンスに対する一貫性と包括的アプローチを探求し、実証する役割を果たしている。
第2節は、規制とインフラのレンズを通して、EUのデジタル主権への推進を図示している。
第3節は、EUにおける優れたAIガバナンスを達成するためのいくつかの考慮を提供することで締めくくっている。
論文 参考訳(メタデータ) (2021-07-08T08:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。