論文の概要: A Principles-based Ethics Assurance Argument Pattern for AI and
Autonomous Systems
- arxiv url: http://arxiv.org/abs/2203.15370v4
- Date: Tue, 6 Jun 2023 14:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 00:00:51.321271
- Title: A Principles-based Ethics Assurance Argument Pattern for AI and
Autonomous Systems
- Title(参考訳): AIと自律システムのための原理に基づく倫理保証パターン
- Authors: Zoe Porter, Ibrahim Habli, John McDermid, Marten Kaas
- Abstract要約: 信頼できるAIと自律システム(AI/AS)研究コミュニティにおける新たな提案は、正当化された信頼を損なうために保証ケースを使用することだ。
本稿では, 提案を実質的に発展させ, 具体化する。
これは、保証ケースの方法論と、原則に基づく倫理的保証の議論パターンを構築するための一連の倫理的原則を結びつけます。
- 参考スコア(独自算出の注目度): 5.45210704757922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An assurance case is a structured argument, typically produced by safety
engineers, to communicate confidence that a critical or complex system, such as
an aircraft, will be acceptably safe within its intended context. Assurance
cases often inform third party approval of a system. One emerging proposition
within the trustworthy AI and autonomous systems (AI/AS) research community is
to use assurance cases to instil justified confidence that specific AI/AS will
be ethically acceptable when operational in well-defined contexts. This paper
substantially develops the proposition and makes it concrete. It brings
together the assurance case methodology with a set of ethical principles to
structure a principles-based ethics assurance argument pattern. The principles
are justice, beneficence, non-maleficence, and respect for human autonomy, with
the principle of transparency playing a supporting role. The argument pattern,
shortened to the acronym PRAISE, is described. The objective of the proposed
PRAISE argument pattern is to provide a reusable template for individual ethics
assurance cases, by which engineers, developers, operators, or regulators could
justify, communicate, or challenge a claim about the overall ethical
acceptability of the use of a specific AI/AS in a given socio-technical
context. We apply the pattern to the hypothetical use case of an autonomous
robo-taxi service in a city centre.
- Abstract(参考訳): 保証ケースは、典型的には安全エンジニアによって作成される構造化された議論であり、航空機のような重要または複雑なシステムは、意図した状況において許容可能な安全であるという自信を伝達する。
保証ケースは、しばしば第三者のシステム承認を知らせる。
信頼できるAIと自律システム(AI/AS)研究コミュニティでは、特定のAI/ASが適切に定義されたコンテキストで運用される場合に倫理的に許容されるという信頼性を高めるために、保証ケースを使用することが提案されている。
本論文は提案を実質的に発展させ,具体化する。
これは、原則に基づく倫理保証の議論パターンを構成するための、一連の倫理原則と保証ケース方法論を組み合わせる。
原則は正義、受益性、非正当性、人間の自律に対する敬意であり、透明性の原則は支持的な役割を果たす。
略語PRAISEに短縮された引数パターンについて述べる。
提案されたPRAISEの議論パターンの目的は、技術者、開発者、オペレーター、または規制官が特定の社会技術的文脈における特定のAI/ASの使用の全体的な倫理的受容性についての主張を正当化、伝達、または異議を唱えることのできる、個々の倫理的保証ケースのための再利用可能なテンプレートを提供することである。
このパターンを,都市中心部における自律型ロボタクシーサービスの仮想利用事例に適用する。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z) - Taking Principles Seriously: A Hybrid Approach to Value Alignment [7.75406296593749]
価値アライメント(VA)システムの設計者は,ハイブリッドアプローチを用いて倫理を取り入れることを提案する。
AIルールベースにおける任意の行動計画に対して、デオントロジー倫理から派生した原則が、特定の「テスト提案」を暗示する方法を示す。
これにより経験的vaは独立して正当化された倫理原則とシームレスに統合することができる。
論文 参考訳(メタデータ) (2020-12-21T22:05:07Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。