論文の概要: Response to Office of the Privacy Commissioner of Canada Consultation
Proposals pertaining to amendments to PIPEDA relative to Artificial
Intelligence
- arxiv url: http://arxiv.org/abs/2006.07025v1
- Date: Fri, 12 Jun 2020 09:20:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-15 22:34:11.691825
- Title: Response to Office of the Privacy Commissioner of Canada Consultation
Proposals pertaining to amendments to PIPEDA relative to Artificial
Intelligence
- Title(参考訳): 人工知能に関するPIPEDA改正に係るカナダ諮問提案のプライバシコミッショナー事務所への応答
- Authors: Mirka Snyder Caron (1) and Abhishek Gupta (1 and 2) ((1) Montreal AI
Ethics Institute, (2) Microsoft)
- Abstract要約: モントリオールAI倫理研究所(MAIEI)は、カナダプライバシー局(OPCC)からコメントの提供を依頼された。
本文書は、執筆におけるMAIEIコメントとレコメンデーションを含む。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In February 2020, the Montreal AI Ethics Institute (MAIEI) was invited by the
Office of the Privacy Commissioner of Canada (OPCC) to provide for comments
both at a closed roundtable and in writing on the OPCC consultation proposal
for amendments relative to Artificial Intelligence (AI), to the Canadian
privacy legislation, the Personal Information Protection and Electronic
Documents Act (PIPEDA). The present document includes MAIEI comments and
recommendations in writing. Per MAIEI's mission and mandate to act as a
catalyst for public feedback pertaining to AI Ethics and regulatory technology
developments, as well as to provide for public competence-building workshops on
critical topics in such domains, the reader will also find such public feedback
and propositions by Montrealers who participated at MAIEI's workshops,
submitted as Schedule 1 to the present report. For each of OPCC 12 proposals,
and underlying questions, as described on its website, MAIEI provides a short
reply, a summary list of recommendations, as well as comments relevant to the
question at hand. We leave you with three general statements to keep in mind
while going through the next pages:
1) AI systems should be used to augment human capacity for meaningful and
purposeful connections and associations, not as a substitute for trust.
2) Humans have collectively accepted to uphold the rule of law, but for
machines, the code is rule. Where socio-technical systems are deployed to make
important decisions, profiles or inferences about individuals, we will
increasingly have to attempt the difficult exercise of drafting and encoding
our law in a manner learnable by machines.
3) Let us work collectively towards a world where Responsible AI becomes the
rule, before our socio-technical systems become "too connected to fail".
- Abstract(参考訳): 2020年2月、モントリオールAI倫理研究所(MAIEI)は、カナダプライバシーコミッショナー(OPCC)から、クローズド・ラウンドテーブルとOPCCによる、カナダプライバシー法、個人情報保護及び電子文書法(PIPEDA)に関する修正に関する協議提案に関するコメントの提出を依頼された。
本文書は、執筆におけるMAIEIコメントとレコメンデーションを含む。
マイエイの使命と義務により、ai倫理と規制技術開発に関するパブリックフィードバックの触媒として、また、これらのドメインにおける重要なトピックに関するパブリックコンピテンス構築ワークショップを提供するため、マイエイのワークショップに参加したモントリオール人によるそのようなパブリックフィードバックや提案を、本報告にスケジュール1として提出する。
opcc 12の提案と基礎となる質問のそれぞれについて、maieiのウェブサイトで説明されているように、maieiは短い返信、推奨事項の要約リスト、そして目の前の質問に関連するコメントを提供している。
1)AIシステムは、信頼の代わりにではなく、有意義で目的のあるつながりと関連性のために人間の能力を増強するために使用されるべきです。
2) 人類は、法の支配を総合的に支持しているが、機械においては、コードは規則である。
個人に関する重要な意思決定、プロファイル、推論を行うために、社会技術的システムがデプロイされる場合、機械によって学習可能な方法で私たちの法律を起草し、コーディングする難しい作業を試みる必要があります。
3) 責任あるaiがルールとなる世界に向けて、社会技術的システムが"失敗につながりすぎている"前に、一緒に作業しましょう。
関連論文リスト
- Existing Industry Practice for the EU AI Act's General-Purpose AI Code of Practice Safety and Security Measures [0.10993800728351737]
本報告では、EU AI ActのGPAI(General-Purpose AI)コード・オブ・プラクティス(Third Draft)で提案されている措置と、主要なAI企業によって採用されている現在のプラクティスとを詳細に比較する。
EUはGPAIモデル提供者に対する拘束義務の履行に向け、具体的な技術的コミットメントで法的要件をブリッジする鍵を握る。
本報告は、法律遵守の表示であっても、実務法規又は企業の方針に関する規定的な視点を取らないことを意図したものではない。
論文 参考訳(メタデータ) (2025-04-21T15:44:01Z) - A Framework for the Private Governance of Frontier Artificial Intelligence [0.0]
本稿では,ハイブリッド・パブリック・プライベート・システムによるフロンティアAIシステムのガバナンスについて提案する。
政府によって認可され、監督される民間機関は、オプトインベースでフロンティアAIシステムの開発者に認証を提供する。
オプトインと引き換えに、フロンティアAI企業は、顧客のモデル誤用に対するトルト責任から保護を受ける。
論文 参考訳(メタデータ) (2025-04-15T02:56:26Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - The explanation dialogues: an expert focus study to understand requirements towards explanations within the GDPR [47.06917254695738]
我々は、XAIに対する法的専門家や実践者の期待、推論、理解を明らかにするための専門的な研究である説明対話(Explaination Dialogues)を提示する。
調査はオンラインアンケートとフォローアップインタビューで構成されており、クレジットドメインのユースケースを中心に行われている。
提示された説明は、情報を理解して欠くことは困難であり、データコントローラと主題の異なる関心事から生じる問題について議論する。
論文 参考訳(メタデータ) (2025-01-09T15:50:02Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Operationalizing the Blueprint for an AI Bill of Rights: Recommendations for Practitioners, Researchers, and Policy Makers [20.16404495546234]
世界の様々な国でいくつかの規制の枠組みが導入されている。
これらのフレームワークの多くは、AIツールの監査と信頼性向上の必要性を強調している。
これらの規制の枠組みは実施の必要性を強調しているが、実践者はしばしば実施に関する詳細なガイダンスを欠いている。
我々は、最先端の文献の分かりやすい要約を提供し、規制ガイドラインと既存のAI研究の間に存在する様々なギャップを強調します。
論文 参考訳(メタデータ) (2024-07-11T17:28:07Z) - AI Cards: Towards an Applied Framework for Machine-Readable AI and Risk Documentation Inspired by the EU AI Act [2.1897070577406734]
その重要性にもかかわらず、AI法に沿ったAIとリスクドキュメントの作成を支援するための標準やガイドラインが欠如している。
提案するAIカードは,AIシステムの意図した使用を表現するための,新しい総合的なフレームワークである。
論文 参考訳(メタデータ) (2024-06-26T09:51:49Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - The Design and Implementation of a National AI Platform for Public
Healthcare in Italy: Implications for Semantics and Interoperability [62.997667081978825]
イタリア国立衛生局は、その技術機関を通じて人工知能を採用している。
このような広大なプログラムには、知識領域の形式化に特別な注意が必要である。
AIが患者、開業医、健康システムに与える影響について疑問が投げかけられている。
論文 参考訳(メタデータ) (2023-04-24T08:00:02Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。