論文の概要: Human rights, democracy, and the rule of law assurance framework for AI
systems: A proposal
- arxiv url: http://arxiv.org/abs/2202.02776v1
- Date: Sun, 6 Feb 2022 13:56:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 09:51:01.183397
- Title: Human rights, democracy, and the rule of law assurance framework for AI
systems: A proposal
- Title(参考訳): aiシステムのための人権・民主主義・法保障枠組みの提案
- Authors: David Leslie, Christopher Burr, Mhairi Aitken, Michael Katell, Morgan
Briggs, Cami Rincon
- Abstract要約: Alan Turing Institute(アラン・チューリング研究所)は、信頼できるAIイノベーションのプラクティスの保証と人間の権利の厳格な統合を運用するために必要なガバナンスプロセスと実践的なツールを探求する研究プログラムを実行した。
この枠組みは完成し、2021年9月に欧州評議会に提出された。
これは、コンテキストベースのリスク分析と適切なステークホルダエンゲージメントと包括的な影響評価、透明性のあるリスク管理、影響緩和、イノベーション保証プラクティスを統合する、AIプロジェクトのライフサイクルの保証に対するエンドツーエンドのアプローチである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Following on from the publication of its Feasibility Study in December 2020,
the Council of Europe's Ad Hoc Committee on Artificial Intelligence (CAHAI) and
its subgroups initiated efforts to formulate and draft its Possible Elements of
a Legal Framework on Artificial Intelligence, based on the Council of Europe's
standards on human rights, democracy, and the rule of law. This document was
ultimately adopted by the CAHAI plenary in December 2021. To support this
effort, The Alan Turing Institute undertook a programme of research that
explored the governance processes and practical tools needed to operationalise
the integration of human right due diligence with the assurance of trustworthy
AI innovation practices.
The resulting framework was completed and submitted to the Council of Europe
in September 2021. It presents an end-to-end approach to the assurance of AI
project lifecycles that integrates context-based risk analysis and appropriate
stakeholder engagement with comprehensive impact assessment, and transparent
risk management, impact mitigation, and innovation assurance practices. Taken
together, these interlocking processes constitute a Human Rights, Democracy and
the Rule of Law Assurance Framework (HUDERAF). The HUDERAF combines the
procedural requirements for principles-based human rights due diligence with
the governance mechanisms needed to set up technical and socio-technical
guardrails for responsible and trustworthy AI innovation practices. Its purpose
is to provide an accessible and user-friendly set of mechanisms for
facilitating compliance with a binding legal framework on artificial
intelligence, based on the Council of Europe's standards on human rights,
democracy, and the rule of law, and to ensure that AI innovation projects are
carried out with appropriate levels of public accountability, transparency, and
democratic governance.
- Abstract(参考訳): 2020年12月のフィージビリティスタディの公表に続いて、欧州評議会の人工知能特別委員会(CAHAI)とそのサブグループは、人権、民主主義、法の支配に関する欧州評議会の基準に基づいて、人工知能に関する法的枠組みの可能な要素を定式化し、策定する取り組みを開始した。
この文書は最終的に2021年12月にcahai plenaryによって採択された。
この取り組みを支援するために、アランチューリング研究所は、信頼できるAIイノベーションのプラクティスの保証と人間の権利の厳密な統合を運用するために必要なガバナンスプロセスと実践的なツールを調査するプログラムを実行した。
この枠組みは完成し、2021年9月に欧州評議会に提出された。
これは、コンテキストベースのリスク分析と適切なステークホルダエンゲージメントと包括的な影響評価、透明性のあるリスク管理、影響緩和、イノベーション保証プラクティスを統合する、AIプロジェクトのライフサイクルの保証に対するエンドツーエンドのアプローチである。
これらの連動過程は、人権、民主主義、法保障枠組み(huderaf)を構成する。
HUDERAFは、原則に基づく人権義務の手続き的要件と、責任と信頼性のあるAIイノベーションプラクティスのための技術的および社会技術的ガードレールを確立するために必要なガバナンスメカニズムを組み合わせる。
その目的は、人権、民主主義、法の支配に関する欧州評議会の基準に基づいて、人工知能に関する法的枠組みの遵守を促進するためのアクセス可能でユーザフレンドリな一連のメカニズムを提供することであり、AIイノベーションプロジェクトが適切なレベルの公的説明責任、透明性、民主的ガバナンスによって実行されることを保証することである。
関連論文リスト
- Public Constitutional AI [0.0]
AI当局の権限はますます強まりつつある。
AIシステムが効果的なガバナンスに必要な正当性を確保するには、どうすればいいのか?
このエッセイは、AIの正当性を確保するためには、AIシステムの設計と制約に一般市民が関与する方法が必要である、と論じている。
論文 参考訳(メタデータ) (2024-06-24T15:00:01Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - The European Commitment to Human-Centered Technology: The Integral Role of HCI in the EU AI Act's Success [4.202570851109354]
EUはAI法を制定し、AIベースのシステムの市場アクセスを規制している。
この法律は、透明性、説明可能性、AIシステムを理解し制御する人間の能力に関する規制に焦点を当てている。
EUは、人間中心のAIシステムに対する民主的な要求を発行し、それによって、AI開発における人間中心のイノベーションのための学際的な研究課題を発行する。
論文 参考訳(メタデータ) (2024-02-22T17:35:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Legal Provocations for HCI in the Design and Development of Trustworthy
Autonomous Systems [2.575172714412997]
我々は、2021年欧州連合AI法(AIA)からの一連の法的挑発について検討する。
AIAは、ハイリスクAIシステム(HRAIS)の必須設計と開発要件を導入し、社会と市民の基本的権利にリスクをもたらすAI開発をターゲットにしている。
これらの要件は、AIの倫理と説明可能性に関する確立した懸念を越えて、AIに対する規制の遵守と社会的信頼の促進を可能にする、人間中心のプロセスと設計方法におけるAI開発を確固たるものにするHCIの新たな機会を開く。
論文 参考訳(メタデータ) (2022-06-15T13:03:43Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Artificial intelligence, human rights, democracy, and the rule of law: a
primer [1.1744028458220428]
人工知能に関するアドホック委員会(CAHAI)は、AIシステムの法的枠組みの実現可能性と潜在的な要素について調査する責任を負っている。
この研究は、すでに国際人権法で規定されている基本的人権と自由を、そのような法的枠組みの基盤として利用できるかを検討する。
このプライマーは、CAHAIのフィージビリティスタディ(Fasibility Study)で提示される主要な概念と原則を、一般の非技術的オーディエンスに導入することを目的としている。
論文 参考訳(メタデータ) (2021-04-02T05:58:42Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。