論文の概要: Bad, mad, and cooked: Moral responsibility for civilian harms in
human-AI military teams
- arxiv url: http://arxiv.org/abs/2211.06326v3
- Date: Wed, 6 Sep 2023 11:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 11:43:45.852527
- Title: Bad, mad, and cooked: Moral responsibility for civilian harms in
human-AI military teams
- Title(参考訳): 悪者、狂人、調理者:AI軍部における民間の損害に対する道徳的責任
- Authors: Susannah Kate Devitt
- Abstract要約: この章では、人文知能(AI)チームによる民間の損害に対する道徳的責任について論じる。
軍事力の増大は、不適切な意思決定環境に配置することで、良いリンゴを「調理」する可能性がある。
この章は、人間-AIチームにおける道徳的責任の条件をマップアウトするための新しいメカニズムを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This chapter explores moral responsibility for civilian harms by
human-artificial intelligence (AI) teams. Although militaries may have some bad
apples responsible for war crimes and some mad apples unable to be responsible
for their actions during a conflict, increasingly militaries may 'cook' their
good apples by putting them in untenable decision-making environments through
the processes of replacing human decision-making with AI determinations in war
making. Responsibility for civilian harm in human-AI military teams may be
contested, risking operators becoming detached, being extreme moral witnesses,
becoming moral crumple zones or suffering moral injury from being part of
larger human-AI systems authorised by the state. Acknowledging military ethics,
human factors and AI work to date as well as critical case studies, this
chapter offers new mechanisms to map out conditions for moral responsibility in
human-AI teams. These include: 1) new decision responsibility prompts for
critical decision method in a cognitive task analysis, and 2) applying an AI
workplace health and safety framework for identifying cognitive and
psychological risks relevant to attributions of moral responsibility in
targeting decisions. Mechanisms such as these enable militaries to design
human-centred AI systems for responsible deployment.
- Abstract(参考訳): この章では、AIチームによる民間人の損害に対する道徳的責任について論じる。
軍部は戦争犯罪の責任を負う悪いりんごや、戦争中の行動に責任を負えない狂ったりんごを持っているかもしれないが、軍部は、人間の意思決定を戦争におけるAI決定に置き換えるプロセスを通じて、不適切な意思決定環境に配置することで、良いりんごを「調理」することができる。
人間とAIの軍事チームにおける民間の損害に対する責任は争われ、オペレーターが分離され、極端な道徳的な証人になり、道徳的な残酷なゾーンになったり、国家によって認可されたより大きな人道AIシステムの一部として道徳的な傷を負ったりする恐れがある。
この章は、軍事倫理、人間的要因、AI作業、および批判的ケーススタディを認識し、人間-AIチームにおける道徳的責任の条件をマップアウトするための新しいメカニズムを提供する。
以下を含む。
1)認知的タスク分析における批判的意思決定のための新たな意思決定責任
2)AI職場の健康・安全の枠組みを適用し,意思決定における道徳的責任の帰属に関連する認知的・心理的リスクを識別する。
このようなメカニズムにより、軍隊は責任ある展開のために人間中心のAIシステムを設計できる。
関連論文リスト
- Commercial AI, Conflict, and Moral Responsibility: A theoretical
analysis and practical approach to the moral responsibilities associated with
dual-use AI technology [2.050345881732981]
AIシステムのライフサイクルに関わるステークホルダは、合理的に予測可能なシステムの利用に対して道徳的に責任がある、と私たちは主張する。
我々は、市民AIの開発者が道徳的責任を軽減できるように、技術的に実現可能な3つのアクションを提示します。
論文 参考訳(メタデータ) (2024-01-30T18:09:45Z) - What's my role? Modelling responsibility for AI-based safety-critical
systems [1.0549609328807565]
開発者や製造業者は、AI-SCSの有害な振る舞いに責任を負うことは困難である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になる可能性がある。
本稿では,異なる責任感(ロール,モラル,法的,因果関係)と,それらがAI-SCSの安全性の文脈でどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-12-30T13:45:36Z) - Moral Responsibility for AI Systems [8.919993498343159]
何らかの行動を行うエージェントの結果に対する道徳的責任は、因果的状態とてんかん的状態の両方を巻き込むために一般的に取られる。
本稿では,因果モデルの枠組みにおける両条件の形式的定義について述べる。
論文 参考訳(メタデータ) (2023-10-27T10:37:47Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - Hiding Behind Machines: When Blame Is Shifted to Artificial Agents [0.0]
この記事は、我々の代理として決定するエージェントの責任に焦点を当てます。
エージェントが人的であり、人間ではない場合に、エージェントによる道徳的結果の生成が、体系的に異なる判断を下すかどうかを検討する。
論文 参考訳(メタデータ) (2021-01-27T14:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。