論文の概要: Response to Office of the Privacy Commissioner of Canada Consultation
Proposals pertaining to amendments to PIPEDA relative to Artificial
Intelligence
- arxiv url: http://arxiv.org/abs/2006.07025v1
- Date: Fri, 12 Jun 2020 09:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 22:34:11.691825
- Title: Response to Office of the Privacy Commissioner of Canada Consultation
Proposals pertaining to amendments to PIPEDA relative to Artificial
Intelligence
- Title(参考訳): 人工知能に関するPIPEDA改正に係るカナダ諮問提案のプライバシコミッショナー事務所への応答
- Authors: Mirka Snyder Caron (1) and Abhishek Gupta (1 and 2) ((1) Montreal AI
Ethics Institute, (2) Microsoft)
- Abstract要約: モントリオールAI倫理研究所(MAIEI)は、カナダプライバシー局(OPCC)からコメントの提供を依頼された。
本文書は、執筆におけるMAIEIコメントとレコメンデーションを含む。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In February 2020, the Montreal AI Ethics Institute (MAIEI) was invited by the
Office of the Privacy Commissioner of Canada (OPCC) to provide for comments
both at a closed roundtable and in writing on the OPCC consultation proposal
for amendments relative to Artificial Intelligence (AI), to the Canadian
privacy legislation, the Personal Information Protection and Electronic
Documents Act (PIPEDA). The present document includes MAIEI comments and
recommendations in writing. Per MAIEI's mission and mandate to act as a
catalyst for public feedback pertaining to AI Ethics and regulatory technology
developments, as well as to provide for public competence-building workshops on
critical topics in such domains, the reader will also find such public feedback
and propositions by Montrealers who participated at MAIEI's workshops,
submitted as Schedule 1 to the present report. For each of OPCC 12 proposals,
and underlying questions, as described on its website, MAIEI provides a short
reply, a summary list of recommendations, as well as comments relevant to the
question at hand. We leave you with three general statements to keep in mind
while going through the next pages:
1) AI systems should be used to augment human capacity for meaningful and
purposeful connections and associations, not as a substitute for trust.
2) Humans have collectively accepted to uphold the rule of law, but for
machines, the code is rule. Where socio-technical systems are deployed to make
important decisions, profiles or inferences about individuals, we will
increasingly have to attempt the difficult exercise of drafting and encoding
our law in a manner learnable by machines.
3) Let us work collectively towards a world where Responsible AI becomes the
rule, before our socio-technical systems become "too connected to fail".
- Abstract(参考訳): 2020年2月、モントリオールAI倫理研究所(MAIEI)は、カナダプライバシーコミッショナー(OPCC)から、クローズド・ラウンドテーブルとOPCCによる、カナダプライバシー法、個人情報保護及び電子文書法(PIPEDA)に関する修正に関する協議提案に関するコメントの提出を依頼された。
本文書は、執筆におけるMAIEIコメントとレコメンデーションを含む。
マイエイの使命と義務により、ai倫理と規制技術開発に関するパブリックフィードバックの触媒として、また、これらのドメインにおける重要なトピックに関するパブリックコンピテンス構築ワークショップを提供するため、マイエイのワークショップに参加したモントリオール人によるそのようなパブリックフィードバックや提案を、本報告にスケジュール1として提出する。
opcc 12の提案と基礎となる質問のそれぞれについて、maieiのウェブサイトで説明されているように、maieiは短い返信、推奨事項の要約リスト、そして目の前の質問に関連するコメントを提供している。
1)AIシステムは、信頼の代わりにではなく、有意義で目的のあるつながりと関連性のために人間の能力を増強するために使用されるべきです。
2) 人類は、法の支配を総合的に支持しているが、機械においては、コードは規則である。
個人に関する重要な意思決定、プロファイル、推論を行うために、社会技術的システムがデプロイされる場合、機械によって学習可能な方法で私たちの法律を起草し、コーディングする難しい作業を試みる必要があります。
3) 責任あるaiがルールとなる世界に向けて、社会技術的システムが"失敗につながりすぎている"前に、一緒に作業しましょう。
関連論文リスト
- Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Operationalizing the Blueprint for an AI Bill of Rights: Recommendations for Practitioners, Researchers, and Policy Makers [20.16404495546234]
世界の様々な国でいくつかの規制の枠組みが導入されている。
これらのフレームワークの多くは、AIツールの監査と信頼性向上の必要性を強調している。
これらの規制の枠組みは実施の必要性を強調しているが、実践者はしばしば実施に関する詳細なガイダンスを欠いている。
我々は、最先端の文献の分かりやすい要約を提供し、規制ガイドラインと既存のAI研究の間に存在する様々なギャップを強調します。
論文 参考訳(メタデータ) (2024-07-11T17:28:07Z) - AI Cards: Towards an Applied Framework for Machine-Readable AI and Risk Documentation Inspired by the EU AI Act [2.1897070577406734]
その重要性にもかかわらず、AI法に沿ったAIとリスクドキュメントの作成を支援するための標準やガイドラインが欠如している。
提案するAIカードは,AIシステムの意図した使用を表現するための,新しい総合的なフレームワークである。
論文 参考訳(メタデータ) (2024-06-26T09:51:49Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - The Design and Implementation of a National AI Platform for Public
Healthcare in Italy: Implications for Semantics and Interoperability [62.997667081978825]
イタリア国立衛生局は、その技術機関を通じて人工知能を採用している。
このような広大なプログラムには、知識領域の形式化に特別な注意が必要である。
AIが患者、開業医、健康システムに与える影響について疑問が投げかけられている。
論文 参考訳(メタデータ) (2023-04-24T08:00:02Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。