論文の概要: Response by the Montreal AI Ethics Institute to the European
Commission's Whitepaper on AI
- arxiv url: http://arxiv.org/abs/2006.09428v1
- Date: Tue, 16 Jun 2020 18:16:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 19:54:21.909170
- Title: Response by the Montreal AI Ethics Institute to the European
Commission's Whitepaper on AI
- Title(参考訳): モントリオールAI倫理研究所による欧州委員会のAIに関するホワイトペーパーへの反応
- Authors: Abhishek Gupta (1 and 2), Camylle Lanteigne (1 and 3) ((1) Montreal AI
Ethics Institute, (2) Microsoft, (3) McGill University)
- Abstract要約: 2020年2月、欧州委員会(EC)は「On Artificial Intelligence」と題するホワイトペーパーを発表した。
本稿では、EUにおける人工知能(AI)の推進と採用のためのECの政策オプションについて概説する。
モントリオールAI倫理研究所(MAIEI)はこの論文をレビューし、回答を発表した。
MAIEIは上記のセクションに関して15のレコメンデーションを提供している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In February 2020, the European Commission (EC) published a white paper
entitled, On Artificial Intelligence - A European approach to excellence and
trust. This paper outlines the EC's policy options for the promotion and
adoption of artificial intelligence (AI) in the European Union. The Montreal AI
Ethics Institute (MAIEI) reviewed this paper and published a response
addressing the EC's plans to build an "ecosystem of excellence" and an
"ecosystem of trust," as well as the safety and liability implications of AI,
the internet of things (IoT), and robotics.
MAIEI provides 15 recommendations in relation to the sections outlined above,
including: 1) focus efforts on the research and innovation community, member
states, and the private sector; 2) create alignment between trading partners'
policies and EU policies; 3) analyze the gaps in the ecosystem between
theoretical frameworks and approaches to building trustworthy AI; 4) focus on
coordination and policy alignment; 5) focus on mechanisms that promote private
and secure sharing of data; 6) create a network of AI research excellence
centres to strengthen the research and innovation community; 7) promote
knowledge transfer and develop AI expertise through Digital Innovation Hubs; 8)
add nuance to the discussion regarding the opacity of AI systems; 9) create a
process for individuals to appeal an AI system's decision or output; 10)
implement new rules and strengthen existing regulations; 11) ban the use of
facial recognition technology; 12) hold all AI systems to similar standards and
compulsory requirements; 13) ensure biometric identification systems fulfill
the purpose for which they are implemented; 14) implement a voluntary labelling
system for systems that are not considered high-risk; 15) appoint individuals
to the oversight process who understand AI systems well and are able to
communicate potential risks.
- Abstract(参考訳): 2020年2月、欧州委員会(EC)は「On Artificial Intelligence - A European approach to excellence and trust」と題する白書を発表した。
本稿では、欧州連合における人工知能(AI)の推進と採用のためのECの政策オプションの概要について述べる。
モントリオールAI倫理研究所(MAIEI)は、この論文をレビューし、ECの計画である「卓越したエコシステム」と「信頼のエコシステム」の構築と、AI、モノのインターネット(IoT)、ロボット工学の安全性と責任に関する回答を公開した。
MAIEIは、上記のセクションに関して、以下を含む15の勧告を提供している。
1) 研究開発コミュニティ、加盟国及び民間部門への取り組みに焦点をあてる。
2) トレーディングパートナーの政策とEUの政策を整合させる。
3) 信頼できるAIを構築するための理論的枠組みとアプローチの間のエコシステムのギャップを分析する。
4) 調整及び政策調整に焦点を当てる。
5) データのプライベートかつセキュアな共有を促進するメカニズムに注目すること。
6)研究・イノベーションコミュニティを強化するため、AI研究卓越センターのネットワークを構築する。
7) デジタルイノベーションハブを通じて知識移転を促進し、AIの専門知識を育成すること。
8)AIシステムの不透明性に関する議論にニュアンスを加えること。
9) 個人がAIシステムの決定又は出力を訴えるプロセスを作成すること。
10) 新規則の施行及び既存規則の強化
11) 顔認識技術の使用を禁止すること。
12) 同様の基準及び強制要件に全AIシステムを保持すること。
13) 生体認証システムが実施する目的を達成すること。
14) リスクが高いとみなされないシステムに対する自発的なラベリングシステムを実装すること。
15)AIシステムを理解し、潜在的なリスクを伝えることができる監視プロセスに個人を任命する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - The European Commitment to Human-Centered Technology: The Integral Role of HCI in the EU AI Act's Success [4.202570851109354]
EUはAI法を制定し、AIベースのシステムの市場アクセスを規制している。
この法律は、透明性、説明可能性、AIシステムを理解し制御する人間の能力に関する規制に焦点を当てている。
EUは、人間中心のAIシステムに対する民主的な要求を発行し、それによって、AI開発における人間中心のイノベーションのための学際的な研究課題を発行する。
論文 参考訳(メタデータ) (2024-02-22T17:35:29Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。