論文の概要: A Principles-based Ethical Assurance Argument for AI and Autonomous
Systems
- arxiv url: http://arxiv.org/abs/2203.15370v3
- Date: Wed, 21 Dec 2022 09:30:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:52:50.708414
- Title: A Principles-based Ethical Assurance Argument for AI and Autonomous
Systems
- Title(参考訳): AIと自律システムのための原理に基づく倫理的保証
- Authors: Zoe Porter, Ibrahim Habli, John McDermid, Marten Kaas
- Abstract要約: 倫理的AIコミュニティにおける新たな提案は、保証ケース方法論を拡張して適用することである。
特定の文脈でAI/ASを使用することによる倫理的受容性に関する体系的推論を構築するための枠組みを提案する。
本稿では、自動運転車タクシーの例を例に、倫理的保証議論パターンが実際にどのようにインスタンス化されるかを示す。
- 参考スコア(独自算出の注目度): 5.45210704757922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assurance cases are structured arguments, supported by evidence, that are
often used to establish confidence that a software-intensive system, such as an
aeroplane, will be acceptably safe in its intended context. One emerging
proposition within the ethical AI community is to extend and apply the
assurance case methodology to achieve confidence that AI-enabled and autonomous
systems will be acceptably ethical when used within their intended contexts.
This paper substantially develops the proposition and makes it concrete. We
present a framework - an ethical assurance argument pattern - to structure
systematic reasoning about the ethical acceptability of using a given AI/AS in
a specific context. The framework is based on four core ethical principles:
justice; beneficence; non-maleficence; and respect for human autonomy. To
illustrate the initial plausibility of the proposed methodology, we show how
the ethical assurance argument pattern might be instantiated in practice with
the example of an autonomous vehicle taxi service.
- Abstract(参考訳): 保証のケースは構造化された議論であり、しばしば、航空機のようなソフトウェア集約システムがその意図された文脈で確実に安全であることを確信するために使用される証拠によって支持される。
倫理的AIコミュニティにおける新たな提案の1つは、保証ケースの方法論を拡張して適用することで、AI対応および自律システムは、意図したコンテキスト内で使用する場合に、許容できる倫理的である、という確信を達成することである。
本論文は提案を実質的に発展させ,具体化する。
特定の文脈でAI/ASを使用することによる倫理的受容性についての体系的な推論を構築するためのフレームワーク、倫理的保証議論パターンを提案する。
この枠組みは、正義、受益性、非正当性、人間の自律性への敬意の4つの中心的倫理原則に基づいている。
提案手法の初期の可能性を示すために, 自動運転車タクシーの事例を例に, 倫理的保証の議論パターンが実際どのようにインスタンス化されるかを示す。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z) - Taking Principles Seriously: A Hybrid Approach to Value Alignment [7.75406296593749]
価値アライメント(VA)システムの設計者は,ハイブリッドアプローチを用いて倫理を取り入れることを提案する。
AIルールベースにおける任意の行動計画に対して、デオントロジー倫理から派生した原則が、特定の「テスト提案」を暗示する方法を示す。
これにより経験的vaは独立して正当化された倫理原則とシームレスに統合することができる。
論文 参考訳(メタデータ) (2020-12-21T22:05:07Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。