論文の概要: Legal Provocations for HCI in the Design and Development of Trustworthy
Autonomous Systems
- arxiv url: http://arxiv.org/abs/2206.07506v1
- Date: Wed, 15 Jun 2022 13:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:46:47.112615
- Title: Legal Provocations for HCI in the Design and Development of Trustworthy
Autonomous Systems
- Title(参考訳): 信頼できる自律システムの設計・開発におけるHCIの法的挑発
- Authors: Lachlan D. Urquhart, Glenn McGarry and Andy Crabtree
- Abstract要約: 我々は、2021年欧州連合AI法(AIA)からの一連の法的挑発について検討する。
AIAは、ハイリスクAIシステム(HRAIS)の必須設計と開発要件を導入し、社会と市民の基本的権利にリスクをもたらすAI開発をターゲットにしている。
これらの要件は、AIの倫理と説明可能性に関する確立した懸念を越えて、AIに対する規制の遵守と社会的信頼の促進を可能にする、人間中心のプロセスと設計方法におけるAI開発を確固たるものにするHCIの新たな機会を開く。
- 参考スコア(独自算出の注目度): 2.575172714412997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a series of legal provocations emerging from the proposed
European Union AI Act 2021 (AIA) and how they open up new possibilities for HCI
in the design and development of trustworthy autonomous systems. The AIA
continues the by design trend seen in recent EU regulation of emerging
technologies. The AIA targets AI developments that pose risks to society and
citizens fundamental rights, introducing mandatory design and development
requirements for high-risk AI systems (HRAIS). These requirements regulate
different stages of the AI development cycle including ensuring data quality
and governance strategies, mandating testing of systems, ensuring appropriate
risk management, designing for human oversight, and creating technical
documentation. These requirements open up new opportunities for HCI that reach
beyond established concerns with the ethics and explainability of AI and
situate AI development in human-centered processes and methods of design to
enable compliance with regulation and foster societal trust in AI.
- Abstract(参考訳): 2021年欧州連合のAI法(AIA)からの一連の法的挑発と、信頼できる自律システムの設計と開発におけるHCIの新たな可能性の開放について検討する。
AIAは、最近のEUによる新興技術の規制で見られるバイデザイントレンドを継続している。
AIAは、ハイリスクAIシステム(HRAIS)の設計と開発要件を導入し、社会と市民の基本的権利にリスクをもたらすAI開発をターゲットにしている。
これらの要件は、データ品質とガバナンス戦略の確保、システムのテストの強制、適切なリスク管理の確保、ヒューマン監視の設計、技術ドキュメントの作成など、AI開発サイクルのさまざまな段階を規制する。
これらの要件は、AIの倫理と説明可能性に関する確立した懸念を越えて、AIに対する規制の遵守と社会的信頼の促進を可能にする、人間中心のプロセスと設計方法におけるAI開発を確固たるものにするHCIの新しい機会を開く。
関連論文リスト
- Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity [0.0]
本稿では,サイバーセキュリティにおける人工知能の統合によって引き起こされる倫理的・規制上の課題について批判的に考察する。
我々は、1940年代の理論的議論から、欧州連合のAI法のような最近のグローバルなフレームワークの実装に至るまで、AI規制の歴史的発展を辿った。
バイアス、透明性、説明責任、プライバシ、人間の監視といった倫理的な懸念は、AI駆動のサイバーセキュリティシステムに影響を及ぼすとともに、深く調査されている。
論文 参考訳(メタデータ) (2025-01-15T18:17:37Z) - Decentralized Governance of Autonomous AI Agents [0.0]
ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
論文 参考訳(メタデータ) (2024-12-22T18:01:49Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - How Could Generative AI Support Compliance with the EU AI Act? A Review for Safe Automated Driving Perception [4.075971633195745]
ディープニューラルネットワーク(DNN)は、自動運転車の知覚機能の中心となっている。
EU(EU)人工知能(AI)法は、AIシステムの厳格な規範と標準を確立することによって、これらの課題に対処することを目的としている。
本稿では、DNNに基づく知覚システムに関するEU AI法から生じる要件を要約し、ADにおける既存の生成AIアプリケーションを体系的に分類する。
論文 参考訳(メタデータ) (2024-08-30T12:01:06Z) - Navigating the EU AI Act: A Methodological Approach to Compliance for Safety-critical Products [0.0]
本稿では,リスクの高いAIシステムに対するEU AI Act要件を解釈するための方法論を提案する。
まず,AIシステムに対する製品品質モデルの拡張を提案し,現行の品質モデルではカバーされない法に関する属性を取り入れた。
次に、ステークホルダーレベルで技術的要件を導出するための契約ベースのアプローチを提案します。
論文 参考訳(メタデータ) (2024-03-25T14:32:18Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Responsible Design Patterns for Machine Learning Pipelines [10.184056098238765]
AI倫理には、AIシステムのライフサイクル全体に倫理的原則を適用することが含まれる。
これは、バイアスなどのAIに関連する潜在的なリスクと害を軽減するために不可欠である。
この目標を達成するために、責任あるデザインパターン(RDP)は機械学習(ML)パイプラインに不可欠である。
論文 参考訳(メタデータ) (2023-05-31T15:47:12Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。