論文の概要: A Toolkit for Compliance, a Toolkit for Justice: Drawing on Cross-sectoral Expertise to Develop a Pro-justice EU AI Act Toolkit
- arxiv url: http://arxiv.org/abs/2505.17165v1
- Date: Thu, 22 May 2025 16:12:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.626383
- Title: A Toolkit for Compliance, a Toolkit for Justice: Drawing on Cross-sectoral Expertise to Develop a Pro-justice EU AI Act Toolkit
- Title(参考訳): コンプライアンスのためのツールキット、正義のためのツールキット:EU AI Act Toolkitを開発するためのクロスセクタの専門家の絵を描く
- Authors: Tomasz Hollanek, Yulu Pi, Cosimo Fiorini, Virginia Vignali, Dorian Peters, Eleanor Drage,
- Abstract要約: 欧州連合におけるAI法の導入は、コンプライアンスに関する新たな課題の集合をAI研究実践コミュニティに提示する。
AI倫理の理論を開発や展開の実践に翻訳することを目的としたツールキットの研究は、そのようなリソースが複数の制限に悩まされていることを示唆している。
これらの制限は、ツールキットが産業ベースのチームや、作業が産業の現実から抽象化され、分離される傾向にある学者によって生み出されているという事実に起因している。
- 参考スコア(独自算出の注目度): 2.391483506190989
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The introduction of the AI Act in the European Union presents the AI research and practice community with a set of new challenges related to compliance. While it is certain that AI practitioners will require additional guidance and tools to meet these requirements, previous research on toolkits that aim to translate the theory of AI ethics into development and deployment practice suggests that such resources suffer from multiple limitations. These limitations stem, in part, from the fact that the toolkits are either produced by industry-based teams or by academics whose work tends to be abstract and divorced from the realities of industry. In this paper, we discuss the challenge of developing an AI ethics toolkit for practitioners that helps them comply with new AI-focused regulation, but that also moves beyond mere compliance to consider broader socio-ethical questions throughout development and deployment. The toolkit was created through a cross-sectoral collaboration between an academic team based in the UK and an industry team in Italy. We outline the background and rationale for creating a pro-justice AI Act compliance toolkit, detail the process undertaken to develop it, and describe the collaboration and negotiation efforts that shaped its creation. We aim for the described process to serve as a blueprint for other teams navigating the challenges of academia-industry partnerships and aspiring to produce usable and meaningful AI ethics resources.
- Abstract(参考訳): 欧州連合におけるAI法の導入は、コンプライアンスに関する新たな課題の集合をAI研究実践コミュニティに提示する。
AI実践者がこれらの要件を満たすために追加のガイダンスやツールを必要とすることは確実だが、AI倫理の理論を開発やデプロイメントのプラクティスに変換するためのツールキットに関する以前の研究は、そのようなリソースが複数の制限に悩まされていることを示唆している。
これらの制限は、ツールキットが産業ベースのチームか、あるいは仕事が産業の現実から抽象化され、離婚する傾向にある学者によって生み出されているという事実に起因している。
本稿では,AIに焦点を絞った新たな規制の遵守を支援する実践者のためのAI倫理ツールキットを開発する上での課題について論じる。
このツールキットは、英国を拠点とする学術チームとイタリアの産業チームとのクロスセクタなコラボレーションによって作成された。
我々は、AI Act準拠ツールキットの作成の背景と根拠を概説し、それを開発するためのプロセスの詳細と、その作成を形作ったコラボレーションと交渉の取り組みについて説明する。
我々は、学術と産業のパートナーシップの課題をナビゲートする他のチームにとって、説明されたプロセスが青写真として機能することを目指しており、有用で有意義なAI倫理資源の創出を目指している。
関連論文リスト
- The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Operationalizing the Blueprint for an AI Bill of Rights: Recommendations for Practitioners, Researchers, and Policy Makers [20.16404495546234]
世界の様々な国でいくつかの規制の枠組みが導入されている。
これらのフレームワークの多くは、AIツールの監査と信頼性向上の必要性を強調している。
これらの規制の枠組みは実施の必要性を強調しているが、実践者はしばしば実施に関する詳細なガイダンスを欠いている。
我々は、最先端の文献の分かりやすい要約を提供し、規制ガイドラインと既存のAI研究の間に存在する様々なギャップを強調します。
論文 参考訳(メタデータ) (2024-07-11T17:28:07Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - An Uncommon Task: Participatory Design in Legal AI [64.54460979588075]
われわれは10年以上前に行われた法律分野における、注目に値する、未調査のAI設計プロセスについて検討する。
インタラクティブなシミュレーション手法によって,コンピュータ科学者と弁護士が共同設計者になれることを示す。
論文 参考訳(メタデータ) (2022-03-08T15:46:52Z) - Seeing Like a Toolkit: How Toolkits Envision the Work of AI Ethics [26.977005985123615]
我々は27のAI倫理ツールキットの質的分析を行い、倫理の作業がどのように想像され、これらのツールキットによってどのように支援されるかを調べる。
私たちは、倫理の想像された仕事と、ツールキットがその仕事をするために提供するサポートのミスマッチを特定します。
論文 参考訳(メタデータ) (2022-02-17T17:55:26Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Beyond Fairness Metrics: Roadblocks and Challenges for Ethical AI in
Practice [2.1485350418225244]
我々は,現代産業・社会利用の規模で倫理的AIを構築し,展開する上での実践的課題を概観する。
我々は、倫理的AIを実際に構築するには、AIシステムの開発と展開における倫理の全体的考慮が必要であると論じる。
論文 参考訳(メタデータ) (2021-08-11T18:33:17Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。