論文の概要: Normative Epistemology for Lethal Autonomous Weapons Systems
- arxiv url: http://arxiv.org/abs/2110.12935v1
- Date: Mon, 25 Oct 2021 13:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 21:23:20.666487
- Title: Normative Epistemology for Lethal Autonomous Weapons Systems
- Title(参考訳): 致命的な自律兵器システムの規範的認識論
- Authors: Susannah Kate Devitt
- Abstract要約: 本章では、Lethal Autonomous Weapons Systemsの設計、評価、デプロイメント、イテレーションを導くための高階設計原則について論じる。
疫学モデルは、行動の正当化と知識の帰属における正確さ、可能性、信念、能力、能力、文脈、運の役割を考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of human-information systems, cybernetic systems, and increasingly
autonomous systems requires the application of epistemic frameworks to machines
and human-machine teams. This chapter discusses higher-order design principles
to guide the design, evaluation, deployment, and iteration of Lethal Autonomous
Weapons Systems (LAWS) based on epistemic models. Epistemology is the study of
knowledge. Epistemic models consider the role of accuracy, likelihoods,
beliefs, competencies, capabilities, context, and luck in the justification of
actions and the attribution of knowledge. The aim is not to provide ethical
justification for or against LAWS, but to illustrate how epistemological
frameworks can be used in conjunction with moral apparatus to guide the design
and deployment of future systems. The models discussed in this chapter aim to
make Article 36 reviews of LAWS systematic, expedient, and evaluable. A
Bayesian virtue epistemology is proposed to enable justified actions under
uncertainty that meet the requirements of the Laws of Armed Conflict and
International Humanitarian Law. Epistemic concepts can provide some of the
apparatus to meet explainability and transparency requirements in the
development, evaluation, deployment, and review of ethical AI.
- Abstract(参考訳): 人間の情報システム、サイバネティックシステム、そしてますます自律的なシステムの台頭は、マシンや人間機械チームへの認識フレームワークの適用を必要とする。
本章では,認識モデルに基づく致命的な自律兵器システム(laws)の設計,評価,展開,イテレーションを導くための高次設計原則について論じる。
認識学は知識の研究である。
疫学モデルは、行動の正当化と知識の帰属における正確さ、可能性、信念、能力、能力、文脈、運の役割を考察する。
目的は、LAWSに対する倫理的正当性を提供するのではなく、将来のシステムの設計と展開を導くために、道徳的装置とともに認識論的なフレームワークをどのように利用できるかを説明することである。
本章で論じるモデルは, LAWSの系統的, 迅速, 評価可能な第36条のレビューを行うことを目的とする。
武力紛争法と国際人道法の要件を満たす不確実性の下で正当化された行動を可能にするため、ベイズ美徳認識論が提案されている。
疫学の概念は、倫理的AIの開発、評価、展開、レビューにおける説明可能性および透明性要件を満たすための装置の一部を提供することができる。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [64.59151650272477]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Beneficent Intelligence: A Capability Approach to Modeling Benefit,
Assistance, and Associated Moral Failures through AI Systems [12.239090962956043]
AI倫理に関する一般的な言説は、AIシステムが個人と対話する際に生じる多様な倫理的懸念を捉えるのに必要な言語や形式主義を欠いている。
本稿では、利害関係者に有意義な利益や援助を与えるために、AIシステムに必要な倫理的概念と権利のネットワークを定式化する枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-01T22:38:14Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Explanation Ontology: A Model of Explanations for User-Centered AI [3.1783442097247345]
説明はしばしば、原則的でないポストホックな方法でAIシステムに追加されている。
これらのシステムの採用が拡大し、ユーザ中心の説明可能性に重点を置いているため、説明可能性について第一の考慮事項として扱う構造的表現が必要である。
我々は,説明の役割,システムとユーザ属性の双方をモデル化するための説明オントロジーを設計し,異なる文献に基づく説明型の範囲を設計する。
論文 参考訳(メタデータ) (2020-10-04T03:53:35Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。