論文の概要: A Principles-based Ethics Assurance Argument Pattern for AI and
Autonomous Systems
- arxiv url: http://arxiv.org/abs/2203.15370v4
- Date: Tue, 6 Jun 2023 14:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 00:00:51.321271
- Title: A Principles-based Ethics Assurance Argument Pattern for AI and
Autonomous Systems
- Title(参考訳): AIと自律システムのための原理に基づく倫理保証パターン
- Authors: Zoe Porter, Ibrahim Habli, John McDermid, Marten Kaas
- Abstract要約: 信頼できるAIと自律システム(AI/AS)研究コミュニティにおける新たな提案は、正当化された信頼を損なうために保証ケースを使用することだ。
本稿では, 提案を実質的に発展させ, 具体化する。
これは、保証ケースの方法論と、原則に基づく倫理的保証の議論パターンを構築するための一連の倫理的原則を結びつけます。
- 参考スコア(独自算出の注目度): 5.45210704757922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An assurance case is a structured argument, typically produced by safety
engineers, to communicate confidence that a critical or complex system, such as
an aircraft, will be acceptably safe within its intended context. Assurance
cases often inform third party approval of a system. One emerging proposition
within the trustworthy AI and autonomous systems (AI/AS) research community is
to use assurance cases to instil justified confidence that specific AI/AS will
be ethically acceptable when operational in well-defined contexts. This paper
substantially develops the proposition and makes it concrete. It brings
together the assurance case methodology with a set of ethical principles to
structure a principles-based ethics assurance argument pattern. The principles
are justice, beneficence, non-maleficence, and respect for human autonomy, with
the principle of transparency playing a supporting role. The argument pattern,
shortened to the acronym PRAISE, is described. The objective of the proposed
PRAISE argument pattern is to provide a reusable template for individual ethics
assurance cases, by which engineers, developers, operators, or regulators could
justify, communicate, or challenge a claim about the overall ethical
acceptability of the use of a specific AI/AS in a given socio-technical
context. We apply the pattern to the hypothetical use case of an autonomous
robo-taxi service in a city centre.
- Abstract(参考訳): 保証ケースは、典型的には安全エンジニアによって作成される構造化された議論であり、航空機のような重要または複雑なシステムは、意図した状況において許容可能な安全であるという自信を伝達する。
保証ケースは、しばしば第三者のシステム承認を知らせる。
信頼できるAIと自律システム(AI/AS)研究コミュニティでは、特定のAI/ASが適切に定義されたコンテキストで運用される場合に倫理的に許容されるという信頼性を高めるために、保証ケースを使用することが提案されている。
本論文は提案を実質的に発展させ,具体化する。
これは、原則に基づく倫理保証の議論パターンを構成するための、一連の倫理原則と保証ケース方法論を組み合わせる。
原則は正義、受益性、非正当性、人間の自律に対する敬意であり、透明性の原則は支持的な役割を果たす。
略語PRAISEに短縮された引数パターンについて述べる。
提案されたPRAISEの議論パターンの目的は、技術者、開発者、オペレーター、または規制官が特定の社会技術的文脈における特定のAI/ASの使用の全体的な倫理的受容性についての主張を正当化、伝達、または異議を唱えることのできる、個々の倫理的保証ケースのための再利用可能なテンプレートを提供することである。
このパターンを,都市中心部における自律型ロボタクシーサービスの仮想利用事例に適用する。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - A method for ethical AI in Defence: A case study on developing
trustworthy autonomous systems [0.0]
さまざまな協力者や利害関係者による、業界主導の政府主導のプロジェクトにおいて、信頼できる自律システム – Athena AI – を構築するためのケーススタディについて説明する。
我々は、責任ある研究とイノベーションに沿った倫理的アプローチを組み込むことの価値と影響について、教訓を導き出す。
論文 参考訳(メタデータ) (2022-06-21T23:17:17Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Taking Principles Seriously: A Hybrid Approach to Value Alignment [7.75406296593749]
価値アライメント(VA)システムの設計者は,ハイブリッドアプローチを用いて倫理を取り入れることを提案する。
AIルールベースにおける任意の行動計画に対して、デオントロジー倫理から派生した原則が、特定の「テスト提案」を暗示する方法を示す。
これにより経験的vaは独立して正当化された倫理原則とシームレスに統合することができる。
論文 参考訳(メタデータ) (2020-12-21T22:05:07Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。