論文の概要: Ethical Assurance: A practical approach to the responsible design,
development, and deployment of data-driven technologies
- arxiv url: http://arxiv.org/abs/2110.05164v1
- Date: Mon, 11 Oct 2021 11:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 19:28:47.776684
- Title: Ethical Assurance: A practical approach to the responsible design,
development, and deployment of data-driven technologies
- Title(参考訳): 倫理的保証:データ駆動技術の責任ある設計、開発、展開への実践的アプローチ
- Authors: Christopher Burr and David Leslie
- Abstract要約: この記事では、データサイエンスとAIにおける責任ある研究とイノベーションに関する学際的プロジェクトへのコントリビューションを提供する。
まず、アルゴリズム評価の実践的なメカニズムを確立するための現在の取り組みについて批判的な分析を行う。
第二に、議論に基づく保証の方法論へのアクセシビリティな導入を提供する。
第3に,我々は「倫理的保証」と呼ぶ,議論に基づく保証の新たなバージョンを確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article offers several contributions to the interdisciplinary project of
responsible research and innovation in data science and AI. First, it provides
a critical analysis of current efforts to establish practical mechanisms for
algorithmic assessment, which are used to operationalise normative principles,
such as sustainability, accountability, transparency, fairness, and
explainability, in order to identify limitations and gaps with the current
approaches. Second, it provides an accessible introduction to the methodology
of argument-based assurance, and explores how it is currently being applied in
the development of safety cases for autonomous and intelligent systems. Third,
it generalises this method to incorporate wider ethical, social, and legal
considerations, in turn establishing a novel version of argument-based
assurance that we call 'ethical assurance'. Ethical assurance is presented as a
structured means for unifying the myriad practical mechanisms that have been
proposed, as it is built upon a process-based form of project governance that
supports inclusive and participatory ethical deliberation while also remaining
grounded in social and technical realities. Finally, it sets an agenda for
ethical assurance, by detailing current challenges, open questions, and next
steps, which serve as a springboard to build an active (and interdisciplinary)
research programme as well as contribute to ongoing discussions in policy and
governance.
- Abstract(参考訳): この記事では、データサイエンスとAIにおける責任ある研究とイノベーションに関する学際プロジェクトへのいくつかの貢献を紹介する。
まず, 持続可能性, 説明責任, 透明性, 公平性, 説明可能性などの規範的原理を運用し, アルゴリズム評価の実際的メカニズムを確立するための現在の取り組みを批判的に分析し, 限界とギャップを特定する。
第二に、議論に基づく保証の方法論へのアクセス可能な導入を提供し、自律的およびインテリジェントなシステムの安全ケースの開発に現在どのように適用されているかを探る。
第3に、この手法を一般化し、より広範な倫理的、社会的、法的考察を取り入れ、さらに、我々が「倫理的保証」と呼ぶ議論に基づく保証の新しいバージョンを確立する。
倫理的保証は、社会的・技術的現実にも根ざしたまま、包括的で参加的な倫理的熟考をサポートするプロセスベースのプロジェクトガバナンスに基づいて、提案された無数の実践的メカニズムを統合するための構造化された手段として提示される。
最後に、現在の課題、オープンな質問、次のステップを詳述し、積極的な(そして学際的な)研究プログラムを構築するのに役立ち、政策とガバナンスに関する継続的な議論に貢献する、倫理的保証のための議題を設定します。
関連論文リスト
- Fair by design: A sociotechnical approach to justifying the fairness of AI-enabled systems across the lifecycle [0.8164978442203773]
公正性は、既存のAIガイドラインにおいて最もよく認識される倫理的原則の1つである。
公正なAI対応システムの開発は、新たなAI規制によって要求される。
論文 参考訳(メタデータ) (2024-06-13T12:03:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - A multidomain relational framework to guide institutional AI research
and adoption [0.0]
我々は、AIを採用することの意味を理解することを目的とした研究努力が、ほんの一握りのアイデアだけを優先する傾向があると論じている。
本稿では,フィールド間の用語を整理する概念的枠組みとして,シンプルなポリシーと研究設計ツールを提案する。
論文 参考訳(メタデータ) (2023-03-17T16:33:01Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Achieving a Data-driven Risk Assessment Methodology for Ethical AI [3.523208537466128]
我々は,AIを用いた組織が直面する倫理的・社会的リスクの実践的定義の基盤として,多分野の研究アプローチが重要であることを示す。
本稿では,DRESS-eAIという新たなリスク評価手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:55:33Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - An Ecosystem Approach to Ethical AI and Data Use: Experimental
Reflections [0.0]
本稿では、倫理的課題に直面し解決することに関して、AI実践者のニーズを特定する方法論を提供する。
ダイアログと相互責任に基づく運用倫理に対する草の根的アプローチを提供する。
論文 参考訳(メタデータ) (2020-12-27T07:41:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。