論文の概要: Human rights, democracy, and the rule of law assurance framework for AI
systems: A proposal
- arxiv url: http://arxiv.org/abs/2202.02776v1
- Date: Sun, 6 Feb 2022 13:56:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 09:51:01.183397
- Title: Human rights, democracy, and the rule of law assurance framework for AI
systems: A proposal
- Title(参考訳): aiシステムのための人権・民主主義・法保障枠組みの提案
- Authors: David Leslie, Christopher Burr, Mhairi Aitken, Michael Katell, Morgan
Briggs, Cami Rincon
- Abstract要約: Alan Turing Institute(アラン・チューリング研究所)は、信頼できるAIイノベーションのプラクティスの保証と人間の権利の厳格な統合を運用するために必要なガバナンスプロセスと実践的なツールを探求する研究プログラムを実行した。
この枠組みは完成し、2021年9月に欧州評議会に提出された。
これは、コンテキストベースのリスク分析と適切なステークホルダエンゲージメントと包括的な影響評価、透明性のあるリスク管理、影響緩和、イノベーション保証プラクティスを統合する、AIプロジェクトのライフサイクルの保証に対するエンドツーエンドのアプローチである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Following on from the publication of its Feasibility Study in December 2020,
the Council of Europe's Ad Hoc Committee on Artificial Intelligence (CAHAI) and
its subgroups initiated efforts to formulate and draft its Possible Elements of
a Legal Framework on Artificial Intelligence, based on the Council of Europe's
standards on human rights, democracy, and the rule of law. This document was
ultimately adopted by the CAHAI plenary in December 2021. To support this
effort, The Alan Turing Institute undertook a programme of research that
explored the governance processes and practical tools needed to operationalise
the integration of human right due diligence with the assurance of trustworthy
AI innovation practices.
The resulting framework was completed and submitted to the Council of Europe
in September 2021. It presents an end-to-end approach to the assurance of AI
project lifecycles that integrates context-based risk analysis and appropriate
stakeholder engagement with comprehensive impact assessment, and transparent
risk management, impact mitigation, and innovation assurance practices. Taken
together, these interlocking processes constitute a Human Rights, Democracy and
the Rule of Law Assurance Framework (HUDERAF). The HUDERAF combines the
procedural requirements for principles-based human rights due diligence with
the governance mechanisms needed to set up technical and socio-technical
guardrails for responsible and trustworthy AI innovation practices. Its purpose
is to provide an accessible and user-friendly set of mechanisms for
facilitating compliance with a binding legal framework on artificial
intelligence, based on the Council of Europe's standards on human rights,
democracy, and the rule of law, and to ensure that AI innovation projects are
carried out with appropriate levels of public accountability, transparency, and
democratic governance.
- Abstract(参考訳): 2020年12月のフィージビリティスタディの公表に続いて、欧州評議会の人工知能特別委員会(CAHAI)とそのサブグループは、人権、民主主義、法の支配に関する欧州評議会の基準に基づいて、人工知能に関する法的枠組みの可能な要素を定式化し、策定する取り組みを開始した。
この文書は最終的に2021年12月にcahai plenaryによって採択された。
この取り組みを支援するために、アランチューリング研究所は、信頼できるAIイノベーションのプラクティスの保証と人間の権利の厳密な統合を運用するために必要なガバナンスプロセスと実践的なツールを調査するプログラムを実行した。
この枠組みは完成し、2021年9月に欧州評議会に提出された。
これは、コンテキストベースのリスク分析と適切なステークホルダエンゲージメントと包括的な影響評価、透明性のあるリスク管理、影響緩和、イノベーション保証プラクティスを統合する、AIプロジェクトのライフサイクルの保証に対するエンドツーエンドのアプローチである。
これらの連動過程は、人権、民主主義、法保障枠組み(huderaf)を構成する。
HUDERAFは、原則に基づく人権義務の手続き的要件と、責任と信頼性のあるAIイノベーションプラクティスのための技術的および社会技術的ガードレールを確立するために必要なガバナンスメカニズムを組み合わせる。
その目的は、人権、民主主義、法の支配に関する欧州評議会の基準に基づいて、人工知能に関する法的枠組みの遵守を促進するためのアクセス可能でユーザフレンドリな一連のメカニズムを提供することであり、AIイノベーションプロジェクトが適切なレベルの公的説明責任、透明性、民主的ガバナンスによって実行されることを保証することである。
関連論文リスト
- AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この論文は、人間の裁量を再配置し、特定のタイプの説明責任を再形成するAIの可能性を強調している。
責任あるAI採用のためのフレームワークを推進し、都市のガバナンスが適応的で透明性があり、パブリックな価値と一致し続けることを保証します。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Democratizing AI Governance: Balancing Expertise and Public Participation [1.0878040851638]
人工知能(AI)システムの開発と展開は、その大きな社会的影響とともに、ガバナンスにとって重要な課題を提起している。
本稿では、専門家主導による監視と民主的参加の緊張関係を考察し、参加型と熟考型民主主義のモデルを分析する。
これらのアプローチを欧州連合に合わせたバランスの取れたガバナンスモデルに統合するための勧告が提供されている。
論文 参考訳(メタデータ) (2025-01-16T17:47:33Z) - Responsible AI Governance: A Response to UN Interim Report on Governing AI for Humanity [15.434533537570614]
このレポートは、持続可能な開発目標を達成するためのAIの変革の可能性を強調している。
それは、関連するリスクを軽減するための堅牢なガバナンスの必要性を認めている。
報告書は、責任あるAIガバナンスを促進するための実行可能な原則で締めくくっている。
論文 参考訳(メタデータ) (2024-11-29T18:57:24Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Artificial intelligence, human rights, democracy, and the rule of law: a
primer [1.1744028458220428]
人工知能に関するアドホック委員会(CAHAI)は、AIシステムの法的枠組みの実現可能性と潜在的な要素について調査する責任を負っている。
この研究は、すでに国際人権法で規定されている基本的人権と自由を、そのような法的枠組みの基盤として利用できるかを検討する。
このプライマーは、CAHAIのフィージビリティスタディ(Fasibility Study)で提示される主要な概念と原則を、一般の非技術的オーディエンスに導入することを目的としている。
論文 参考訳(メタデータ) (2021-04-02T05:58:42Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。