論文の概要: Legal Provocations for HCI in the Design and Development of Trustworthy
Autonomous Systems
- arxiv url: http://arxiv.org/abs/2206.07506v1
- Date: Wed, 15 Jun 2022 13:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:46:47.112615
- Title: Legal Provocations for HCI in the Design and Development of Trustworthy
Autonomous Systems
- Title(参考訳): 信頼できる自律システムの設計・開発におけるHCIの法的挑発
- Authors: Lachlan D. Urquhart, Glenn McGarry and Andy Crabtree
- Abstract要約: 我々は、2021年欧州連合AI法(AIA)からの一連の法的挑発について検討する。
AIAは、ハイリスクAIシステム(HRAIS)の必須設計と開発要件を導入し、社会と市民の基本的権利にリスクをもたらすAI開発をターゲットにしている。
これらの要件は、AIの倫理と説明可能性に関する確立した懸念を越えて、AIに対する規制の遵守と社会的信頼の促進を可能にする、人間中心のプロセスと設計方法におけるAI開発を確固たるものにするHCIの新たな機会を開く。
- 参考スコア(独自算出の注目度): 2.575172714412997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a series of legal provocations emerging from the proposed
European Union AI Act 2021 (AIA) and how they open up new possibilities for HCI
in the design and development of trustworthy autonomous systems. The AIA
continues the by design trend seen in recent EU regulation of emerging
technologies. The AIA targets AI developments that pose risks to society and
citizens fundamental rights, introducing mandatory design and development
requirements for high-risk AI systems (HRAIS). These requirements regulate
different stages of the AI development cycle including ensuring data quality
and governance strategies, mandating testing of systems, ensuring appropriate
risk management, designing for human oversight, and creating technical
documentation. These requirements open up new opportunities for HCI that reach
beyond established concerns with the ethics and explainability of AI and
situate AI development in human-centered processes and methods of design to
enable compliance with regulation and foster societal trust in AI.
- Abstract(参考訳): 2021年欧州連合のAI法(AIA)からの一連の法的挑発と、信頼できる自律システムの設計と開発におけるHCIの新たな可能性の開放について検討する。
AIAは、最近のEUによる新興技術の規制で見られるバイデザイントレンドを継続している。
AIAは、ハイリスクAIシステム(HRAIS)の設計と開発要件を導入し、社会と市民の基本的権利にリスクをもたらすAI開発をターゲットにしている。
これらの要件は、データ品質とガバナンス戦略の確保、システムのテストの強制、適切なリスク管理の確保、ヒューマン監視の設計、技術ドキュメントの作成など、AI開発サイクルのさまざまな段階を規制する。
これらの要件は、AIの倫理と説明可能性に関する確立した懸念を越えて、AIに対する規制の遵守と社会的信頼の促進を可能にする、人間中心のプロセスと設計方法におけるAI開発を確固たるものにするHCIの新しい機会を開く。
関連論文リスト
- The European Commitment to Human-Centered Technology: The Integral Role
of HCI in the EU AI Act's Success [2.95015454112751]
EUはAI法を制定し、AIベースのシステムの市場アクセスを規制している。
この法律は、透明性、説明可能性、AIシステムを理解し制御する人間の能力に関する規制に焦点を当てている。
EUは、人間中心のAIシステムに対する民主的な要求を発行し、それによって、AI開発における人間中心のイノベーションのための学際的な研究課題を発行する。
論文 参考訳(メタデータ) (2024-02-22T17:35:29Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Responsible Design Patterns for Machine Learning Pipelines [10.184056098238765]
AI倫理には、AIシステムのライフサイクル全体に倫理的原則を適用することが含まれる。
これは、バイアスなどのAIに関連する潜在的なリスクと害を軽減するために不可欠である。
この目標を達成するために、責任あるデザインパターン(RDP)は機械学習(ML)パイプラインに不可欠である。
論文 参考訳(メタデータ) (2023-05-31T15:47:12Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - AI at work -- Mitigating safety and discriminatory risk with technical
standards [0.0]
本稿は、既存の国際標準、ヨーロッパ標準、ドイツ標準の概要と評価を提供する。
この論文は、研究プロジェクト「ExamAI - Testing and Auditing of AI systems」の一部である。
論文 参考訳(メタデータ) (2021-08-26T15:13:42Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。