論文の概要: Local Differences, Global Lessons: Insights from Organisation Policies for International Legislation
- arxiv url: http://arxiv.org/abs/2503.05737v1
- Date: Wed, 19 Feb 2025 15:59:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 09:47:40.228750
- Title: Local Differences, Global Lessons: Insights from Organisation Policies for International Legislation
- Title(参考訳): 地域差と世界的教訓:国際法における組織政策からの考察
- Authors: Lucie-Aimée Kaffee, Pepa Atanasova, Anna Rogers,
- Abstract要約: 本稿では、ボトムアップガバナンスアプローチがAIの利用と監視をいかに形成するかを理解するために、ニュース機関と大学という2つの領域におけるAIポリシーを検討する。
私たちは、バイアス、プライバシー、誤情報、説明責任といったリスクに対処する方法において、収束と分散の重要な領域を特定します。
ドメイン固有のAIポリシから学んだことは、グローバルレベルでより適応的で効果的なAIガバナンスに寄与する、と私たちは主張する。
- 参考スコア(独自算出の注目度): 22.476305606415995
- License:
- Abstract: The rapid adoption of AI across diverse domains has led to the development of organisational guidelines that vary significantly, even within the same sector. This paper examines AI policies in two domains, news organisations and universities, to understand how bottom-up governance approaches shape AI usage and oversight. By analysing these policies, we identify key areas of convergence and divergence in how organisations address risks such as bias, privacy, misinformation, and accountability. We then explore the implications of these findings for international AI legislation, particularly the EU AI Act, highlighting gaps where practical policy insights could inform regulatory refinements. Our analysis reveals that organisational policies often address issues such as AI literacy, disclosure practices, and environmental impact, areas that are underdeveloped in existing international frameworks. We argue that lessons from domain-specific AI policies can contribute to more adaptive and effective AI governance at the global level. This study provides actionable recommendations for policymakers seeking to bridge the gap between local AI practices and international regulations.
- Abstract(参考訳): さまざまな分野にわたるAIの急速な採用により、同じ分野内であっても、組織的なガイドラインが大幅に変化している。
本稿では、ボトムアップガバナンスアプローチがAIの利用と監視をいかに形成するかを理解するために、ニュース機関と大学という2つの領域におけるAIポリシーを検討する。
これらのポリシーを分析することで、偏見、プライバシー、誤情報、説明責任といったリスクに対処する組織において、収束と分散の重要な領域を特定します。
次に、これらの発見が国際AI法、特にEU AI法に与える影響について検討し、実用的な政策洞察が規制の強化に影響を及ぼすギャップを強調します。
分析の結果,AIリテラシーや情報開示の実践,環境への影響など,既存の国際枠組みでは未発達の分野に対処する組織政策がしばしば存在することが明らかになった。
ドメイン固有のAIポリシから学んだことは、グローバルレベルでより適応的で効果的なAIガバナンスに寄与する、と私たちは主張する。
この研究は、地元のAI実践と国際規制のギャップを埋めようとしている政策立案者に対して、実用的なレコメンデーションを提供する。
関連論文リスト
- The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The potential functions of an international institution for AI safety. Insights from adjacent policy areas and recent trends [0.0]
OECD、G7、G20、ユネスコ、欧州評議会はすでに倫理的かつ責任あるAIガバナンスのためのフレームワークの開発を始めている。
この章は、国際AI安全機関が実行可能な機能について考察する。
論文 参考訳(メタデータ) (2024-08-31T10:04:53Z) - Operationalizing the Blueprint for an AI Bill of Rights: Recommendations for Practitioners, Researchers, and Policy Makers [20.16404495546234]
世界の様々な国でいくつかの規制の枠組みが導入されている。
これらのフレームワークの多くは、AIツールの監査と信頼性向上の必要性を強調している。
これらの規制の枠組みは実施の必要性を強調しているが、実践者はしばしば実施に関する詳細なガイダンスを欠いている。
我々は、最先端の文献の分かりやすい要約を提供し、規制ガイドラインと既存のAI研究の間に存在する様々なギャップを強調します。
論文 参考訳(メタデータ) (2024-07-11T17:28:07Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - A Comprehensive Review and Systematic Analysis of Artificial
Intelligence Regulation Policies [1.637145148171519]
我々は、異なる地理的な場所と文化的背景からAI規制の提案を包括的にレビューする。
次に、これらのAI規制提案の体系的な分析を行い、それぞれの提案が失敗する可能性を理解する。
この研究は、AI規制の混乱を解消する組織を、分断的かつコンカレントな方法で管理することを目的としている。
論文 参考訳(メタデータ) (2023-07-23T03:44:03Z) - Worldwide AI Ethics: a review of 200 guidelines and recommendations for
AI governance [0.0]
本稿では、公共機関、学術機関、民間企業、市民社会団体が公表した200のガバナンス政策とAI利用に関する倫理ガイドラインのメタ分析を行う。
オープンソースデータベースとツールとしてリリースされているデータセットのポリシとガイドラインで一般的な少なくとも17の共鳴原理を特定します。
本研究は, 今後の規制に組み込むべき合意の領域を提示し, 分析結果の批判的分析と組み合わせたグローバルスケール分析研究の実施の限界を提示する。
論文 参考訳(メタデータ) (2022-06-23T18:03:04Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - AI Federalism: Shaping AI Policy within States in Germany [0.0]
近年のAIガバナンス研究は、国家や国際機関が発行するAIの戦略論文と倫理ガイドラインの分析に重点を置いている。
亜国の機関も人工知能に関する文書を公表しているが、これらは政策分析にはほとんど欠落している。
これは、AIが経済政策や研究政策など多くの政策分野と結びついており、その能力は既に国家と国家のレベルで分散しているため、驚くべきことである。
論文 参考訳(メタデータ) (2021-10-28T16:06:07Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。