論文の概要: A Principle-based Ethical Assurance Argument for AI and Autonomous
Systems
- arxiv url: http://arxiv.org/abs/2203.15370v1
- Date: Tue, 29 Mar 2022 09:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 02:13:36.352784
- Title: A Principle-based Ethical Assurance Argument for AI and Autonomous
Systems
- Title(参考訳): AIと自律システムのための原理に基づく倫理的保証
- Authors: Zoe Porter, Ibrahim Habli and John McDermid
- Abstract要約: 保証事例手法と目標構造化表記法(GSN)について検討する。
AI/ASの設計と展開を導くための4つの中核的な倫理原則について説明する。
私たちはこれを原則に基づく倫理保証のパターンと呼んでいる。
- 参考スコア(独自算出の注目度): 6.12762193927784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An assurance case presents a clear and defensible argument, supported by
evidence, that a system will operate as intended in a particular context.
Assurance cases often inform third party certification of a system. One
emerging proposal within the trustworthy AI and Autonomous Systems (AS)
research community is to extend and apply the assurance case methodology to
achieve justified confidence that a system will be ethically acceptable when
used in a particular context. In this paper, we develop and further advance
this proposal, in order to bring the idea of ethical assurance cases to life.
First, we discuss the assurance case methodology and the Goal Structuring
Notation (GSN), which is a graphical notation that is widely used to record and
present assurance cases. Second, we describe four core ethical principles to
guide the design and deployment of AI/AS: justice; beneficence;
non-maleficence; and respect for personal autonomy. Third, we bring these two
components together and structure an ethical assurance argument pattern - a
reusable template for ethical assurance cases - on the basis of the four
ethical principles. We call this a Principle-based Ethical Assurance Argument
pattern. Throughout, we connect stages of the argument to examples of AI/AS
applications and contexts. This helps to show the initial plausibility of the
proposed methodology.
- Abstract(参考訳): 保証ケースは、特定の文脈で意図されたようにシステムが動作するという証拠によって支持される明確かつ防御可能な主張を示す。
保証ケースは、しばしばシステムの第三者認証を通知します。
信頼できるaiおよび自律システム(as)研究コミュニティにおける新たな提案の一つは、特定の状況においてシステムが倫理的に許容されるという正当化された信頼を達成するために、保証ケース方法論を拡張して適用することである。
本稿では,倫理的保証事例の考え方を生かすために,本提案を発展させ,さらに前進させる。
まず,保証事例を記録・提示するために広く用いられている図式表記法である保証事例方法論と目標構造化表記法(gsn)について述べる。
第2に、AI/ASの設計と展開を導くための4つの中核的倫理原則について説明する。
第3に,これら2つのコンポーネントを組み合わせることで,倫理的保証の議論パターン – 倫理的保証ケースの再利用可能なテンプレート – を,4つの倫理的原則に基づいて構築する。
これを原則に基づく倫理保証のパターンと呼ぶ。
全体として、議論のステージをAI/ASアプリケーションやコンテキストの例に結びつける。
これは提案手法の最初の妥当性を示すのに役立つ。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - A method for ethical AI in Defence: A case study on developing
trustworthy autonomous systems [0.0]
さまざまな協力者や利害関係者による、業界主導の政府主導のプロジェクトにおいて、信頼できる自律システム – Athena AI – を構築するためのケーススタディについて説明する。
我々は、責任ある研究とイノベーションに沿った倫理的アプローチを組み込むことの価値と影響について、教訓を導き出す。
論文 参考訳(メタデータ) (2022-06-21T23:17:17Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Taking Principles Seriously: A Hybrid Approach to Value Alignment [7.75406296593749]
価値アライメント(VA)システムの設計者は,ハイブリッドアプローチを用いて倫理を取り入れることを提案する。
AIルールベースにおける任意の行動計画に対して、デオントロジー倫理から派生した原則が、特定の「テスト提案」を暗示する方法を示す。
これにより経験的vaは独立して正当化された倫理原則とシームレスに統合することができる。
論文 参考訳(メタデータ) (2020-12-21T22:05:07Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。