論文の概要: Uncovering AI Governance Themes in EU Policies using BERTopic and Thematic Analysis
- arxiv url: http://arxiv.org/abs/2509.13387v1
- Date: Tue, 16 Sep 2025 12:20:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.583335
- Title: Uncovering AI Governance Themes in EU Policies using BERTopic and Thematic Analysis
- Title(参考訳): BERTopicとテーマ分析を用いたEUポリシにおけるAIガバナンステーマの発見
- Authors: Delaram Golpayegani, Marta Lasek-Markey, Arjumand Younus, Aphra Kerr, Dave Lewis,
- Abstract要約: 欧州連合(EU)はそのような政策やガイドラインの開発において重要な役割を担っている。
HLEGは信頼できるAIのための影響力のあるガイドラインを発行し、2024年にはEU AI法が採択された。
EUの方針とガイドラインは一致することが期待されているが、その範囲、重点分野、規範の度合い、AIに関する優先順位が異なるかもしれない。
- 参考スコア(独自算出の注目度): 0.5321738009179028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The upsurge of policies and guidelines that aim to ensure Artificial Intelligence (AI) systems are safe and trustworthy has led to a fragmented landscape of AI governance. The European Union (EU) is a key actor in the development of such policies and guidelines. Its High-Level Expert Group (HLEG) issued an influential set of guidelines for trustworthy AI, followed in 2024 by the adoption of the EU AI Act. While the EU policies and guidelines are expected to be aligned, they may differ in their scope, areas of emphasis, degrees of normativity, and priorities in relation to AI. To gain a broad understanding of AI governance from the EU perspective, we leverage qualitative thematic analysis approaches to uncover prevalent themes in key EU documents, including the AI Act and the HLEG Ethics Guidelines. We further employ quantitative topic modelling approaches, specifically through the use of the BERTopic model, to enhance the results and increase the document sample to include EU AI policy documents published post-2018. We present a novel perspective on EU policies, tracking the evolution of its approach to addressing AI governance.
- Abstract(参考訳): 人工知能(AI)システムが安全で信頼性の高いものであることを保証するためのポリシーやガイドラインの高揚は、AIガバナンスの断片化に繋がった。
欧州連合(EU)はそのような政策やガイドラインの開発において重要な役割を担っている。
HLEG(High-Level Expert Group)は、信頼できるAIに関する重要なガイドラインを発行し、2024年にはEUのAI法が採択された。
EUの方針とガイドラインは一致することが期待されているが、その範囲、重点分野、規範の度合い、AIに関する優先順位が異なる可能性がある。
EUの観点からAIガバナンスを広く理解するために、定性的テーマ分析のアプローチを活用して、AI法やHLEG倫理ガイドラインを含む主要なEU文書で一般的なテーマを明らかにする。
我々はさらに、量的トピックモデリングアプローチ、特にBERTopicモデルを用いて、その結果を高め、2018年以降に公開されたEUのAIポリシー文書を含むように文書サンプルを増やす。
我々は、EUの政策に関する新しい視点を示し、AIガバナンスに対処するアプローチの進化を追跡します。
関連論文リスト
- Advancing Science- and Evidence-based AI Policy [163.43609502905707]
本稿では,AIの機会と課題に対処するために,エビデンスと政策の関係を最適化する方法の課題に取り組む。
i)AIのリスクとその効果的な緩和に関する研究、または(ii)これらのリスクに対処するための政策を提唱することで、この問題に対処する努力が増えている。
論文 参考訳(メタデータ) (2025-08-02T23:20:58Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Navigating the EU AI Act: A Methodological Approach to Compliance for Safety-critical Products [0.0]
本稿では,リスクの高いAIシステムに対するEU AI Act要件を解釈するための方法論を提案する。
まず,AIシステムに対する製品品質モデルの拡張を提案し,現行の品質モデルではカバーされない法に関する属性を取り入れた。
次に、ステークホルダーレベルで技術的要件を導出するための契約ベースのアプローチを提案します。
論文 参考訳(メタデータ) (2024-03-25T14:32:18Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The ghost of AI governance past, present and future: AI governance in
the European Union [0.0]
EUは倫理的、信頼できる技術開発を保証し、奨励している。
第1節は、EUのAIガバナンスに対する一貫性と包括的アプローチを探求し、実証する役割を果たしている。
第2節は、規制とインフラのレンズを通して、EUのデジタル主権への推進を図示している。
第3節は、EUにおける優れたAIガバナンスを達成するためのいくつかの考慮を提供することで締めくくっている。
論文 参考訳(メタデータ) (2021-07-08T08:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。