論文の概要: A Principle-based Ethical Assurance Argument for AI and Autonomous
Systems
- arxiv url: http://arxiv.org/abs/2203.15370v1
- Date: Tue, 29 Mar 2022 09:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 02:13:36.352784
- Title: A Principle-based Ethical Assurance Argument for AI and Autonomous
Systems
- Title(参考訳): AIと自律システムのための原理に基づく倫理的保証
- Authors: Zoe Porter, Ibrahim Habli and John McDermid
- Abstract要約: 保証事例手法と目標構造化表記法(GSN)について検討する。
AI/ASの設計と展開を導くための4つの中核的な倫理原則について説明する。
私たちはこれを原則に基づく倫理保証のパターンと呼んでいる。
- 参考スコア(独自算出の注目度): 6.12762193927784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An assurance case presents a clear and defensible argument, supported by
evidence, that a system will operate as intended in a particular context.
Assurance cases often inform third party certification of a system. One
emerging proposal within the trustworthy AI and Autonomous Systems (AS)
research community is to extend and apply the assurance case methodology to
achieve justified confidence that a system will be ethically acceptable when
used in a particular context. In this paper, we develop and further advance
this proposal, in order to bring the idea of ethical assurance cases to life.
First, we discuss the assurance case methodology and the Goal Structuring
Notation (GSN), which is a graphical notation that is widely used to record and
present assurance cases. Second, we describe four core ethical principles to
guide the design and deployment of AI/AS: justice; beneficence;
non-maleficence; and respect for personal autonomy. Third, we bring these two
components together and structure an ethical assurance argument pattern - a
reusable template for ethical assurance cases - on the basis of the four
ethical principles. We call this a Principle-based Ethical Assurance Argument
pattern. Throughout, we connect stages of the argument to examples of AI/AS
applications and contexts. This helps to show the initial plausibility of the
proposed methodology.
- Abstract(参考訳): 保証ケースは、特定の文脈で意図されたようにシステムが動作するという証拠によって支持される明確かつ防御可能な主張を示す。
保証ケースは、しばしばシステムの第三者認証を通知します。
信頼できるaiおよび自律システム(as)研究コミュニティにおける新たな提案の一つは、特定の状況においてシステムが倫理的に許容されるという正当化された信頼を達成するために、保証ケース方法論を拡張して適用することである。
本稿では,倫理的保証事例の考え方を生かすために,本提案を発展させ,さらに前進させる。
まず,保証事例を記録・提示するために広く用いられている図式表記法である保証事例方法論と目標構造化表記法(gsn)について述べる。
第2に、AI/ASの設計と展開を導くための4つの中核的倫理原則について説明する。
第3に,これら2つのコンポーネントを組み合わせることで,倫理的保証の議論パターン – 倫理的保証ケースの再利用可能なテンプレート – を,4つの倫理的原則に基づいて構築する。
これを原則に基づく倫理保証のパターンと呼ぶ。
全体として、議論のステージをAI/ASアプリケーションやコンテキストの例に結びつける。
これは提案手法の最初の妥当性を示すのに役立つ。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z) - Taking Principles Seriously: A Hybrid Approach to Value Alignment [7.75406296593749]
価値アライメント(VA)システムの設計者は,ハイブリッドアプローチを用いて倫理を取り入れることを提案する。
AIルールベースにおける任意の行動計画に対して、デオントロジー倫理から派生した原則が、特定の「テスト提案」を暗示する方法を示す。
これにより経験的vaは独立して正当化された倫理原則とシームレスに統合することができる。
論文 参考訳(メタデータ) (2020-12-21T22:05:07Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。