論文の概要: A Principles-based Ethical Assurance Argument for AI and Autonomous
Systems
- arxiv url: http://arxiv.org/abs/2203.15370v3
- Date: Wed, 21 Dec 2022 09:30:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:52:50.708414
- Title: A Principles-based Ethical Assurance Argument for AI and Autonomous
Systems
- Title(参考訳): AIと自律システムのための原理に基づく倫理的保証
- Authors: Zoe Porter, Ibrahim Habli, John McDermid, Marten Kaas
- Abstract要約: 倫理的AIコミュニティにおける新たな提案は、保証ケース方法論を拡張して適用することである。
特定の文脈でAI/ASを使用することによる倫理的受容性に関する体系的推論を構築するための枠組みを提案する。
本稿では、自動運転車タクシーの例を例に、倫理的保証議論パターンが実際にどのようにインスタンス化されるかを示す。
- 参考スコア(独自算出の注目度): 5.45210704757922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assurance cases are structured arguments, supported by evidence, that are
often used to establish confidence that a software-intensive system, such as an
aeroplane, will be acceptably safe in its intended context. One emerging
proposition within the ethical AI community is to extend and apply the
assurance case methodology to achieve confidence that AI-enabled and autonomous
systems will be acceptably ethical when used within their intended contexts.
This paper substantially develops the proposition and makes it concrete. We
present a framework - an ethical assurance argument pattern - to structure
systematic reasoning about the ethical acceptability of using a given AI/AS in
a specific context. The framework is based on four core ethical principles:
justice; beneficence; non-maleficence; and respect for human autonomy. To
illustrate the initial plausibility of the proposed methodology, we show how
the ethical assurance argument pattern might be instantiated in practice with
the example of an autonomous vehicle taxi service.
- Abstract(参考訳): 保証のケースは構造化された議論であり、しばしば、航空機のようなソフトウェア集約システムがその意図された文脈で確実に安全であることを確信するために使用される証拠によって支持される。
倫理的AIコミュニティにおける新たな提案の1つは、保証ケースの方法論を拡張して適用することで、AI対応および自律システムは、意図したコンテキスト内で使用する場合に、許容できる倫理的である、という確信を達成することである。
本論文は提案を実質的に発展させ,具体化する。
特定の文脈でAI/ASを使用することによる倫理的受容性についての体系的な推論を構築するためのフレームワーク、倫理的保証議論パターンを提案する。
この枠組みは、正義、受益性、非正当性、人間の自律性への敬意の4つの中心的倫理原則に基づいている。
提案手法の初期の可能性を示すために, 自動運転車タクシーの事例を例に, 倫理的保証の議論パターンが実際どのようにインスタンス化されるかを示す。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - A method for ethical AI in Defence: A case study on developing
trustworthy autonomous systems [0.0]
さまざまな協力者や利害関係者による、業界主導の政府主導のプロジェクトにおいて、信頼できる自律システム – Athena AI – を構築するためのケーススタディについて説明する。
我々は、責任ある研究とイノベーションに沿った倫理的アプローチを組み込むことの価値と影響について、教訓を導き出す。
論文 参考訳(メタデータ) (2022-06-21T23:17:17Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Taking Principles Seriously: A Hybrid Approach to Value Alignment [7.75406296593749]
価値アライメント(VA)システムの設計者は,ハイブリッドアプローチを用いて倫理を取り入れることを提案する。
AIルールベースにおける任意の行動計画に対して、デオントロジー倫理から派生した原則が、特定の「テスト提案」を暗示する方法を示す。
これにより経験的vaは独立して正当化された倫理原則とシームレスに統合することができる。
論文 参考訳(メタデータ) (2020-12-21T22:05:07Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。