論文の概要: Bad, mad and cooked apples: Responsibility for unlawful targeting in
human-AI military teams
- arxiv url: http://arxiv.org/abs/2211.06326v1
- Date: Mon, 31 Oct 2022 10:18:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:25:02.841687
- Title: Bad, mad and cooked apples: Responsibility for unlawful targeting in
human-AI military teams
- Title(参考訳): 悪で狂ったり調理されたりんご:人間とAIの軍事チームにおける違法な標的の責任
- Authors: Susannah Kate Devitt
- Abstract要約: 論文は、人間のAIチームによる不正な殺人の責任について考察している。
国家の責任は、事前に予測し、紛争における人間の幸福を保護することである。
不当な死に対する道徳的責任や法的責任さえも、調理されたリンゴに対して争われることがある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A Nation's responsibility is to predict in advance and protect human
wellbeing in conflict including protection from moral injury and unjust
attribution of responsibility for their actions. This position paper considers
responsibility for unlawful killings by human AI teams drawing on a metaphor
from Neta Crawford's chapter, When Soldiers Snap: Bad Apples and Mad Apples, in
Accountability for Killing: Moral responsibility for collateral damage in
America's post 911 wars. This paper contends that although militaries may have
some bad apples responsible for war crimes and some mad apples unable to be
responsible for their actions during a conflict, increasingly militaries may
cook their good apples by putting them in untenable decision making
environments with AI. A cooked apple may be pushed beyond reasonable limits
leading to a loss of situational awareness, cognitive overload, loss of agency
and autonomy leading to automation bias. In these cases, moral responsibility
and perhaps even legal responsibility for unlawful deaths may be contested for
cooked apples, risking operators becoming moral crumple zones and or suffering
moral injury from being part of larger human AI systems authorised by the
state. Nations are responsible for minimising risks to humans within reasonable
bounds and compliance with legal obligations in human AI military teams, and
the military systems used to make or implement decisions. The paper suggests
that best practise WHS frameworks might be drawn on in development, acquisition
and training ahead of deployment of systems in conflicts to predict and
mitigate risks of human AI military teams.
- Abstract(参考訳): 国家の責任は、道徳的障害からの保護や、その行動に対する責任の不正な帰属を含む紛争における人間の幸福を事前に予測し、保護することである。
本稿では,Neta Crawford氏の章“When Soldiers Snap: Bad Apples and Mad Apples, in Accountability for Killing: Moral responsibility for collateral damage in America's post 911 wars”から引用した,人間のAIチームによる不正殺人の責任について考察する。
この論文は、軍隊は戦争犯罪に責任を負う悪いりんごや、戦争中の行動に責任を負うことができない狂ったりんごを持っているかもしれないが、次第に軍隊はAIで決定を下すのが難しい環境に置かれることによって、良いりんごを調理するようになると論じている。
調理されたリンゴは合理的な限界を超えて、状況認識の喪失、認知過剰、機関の喪失、自動化バイアスにつながる自律性の喪失につながる可能性がある。
これらのケースでは、道徳的責任とおそらくは違法な死に対する法的責任が、調理されたリンゴに対して争われ、オペレーターが道徳的な残酷なゾーンになるリスクを冒し、あるいは国家によって認可されたより大きな人間のAIシステムの一部であることによる道徳的損害を被る可能性がある。
国家は人間に対するリスクを最小限に抑え、人間のAI軍事チームにおける法的義務を遵守し、決定を下したり実施するために使用される軍事システムに責任を負う。
論文は、人間のAI部隊のリスクを予測し軽減するために、紛争にシステムを展開する前に、WHSフレームワークを開発、取得、訓練する上で最も実践することが示唆されている。
関連論文リスト
- Balancing Power and Ethics: A Framework for Addressing Human Rights Concerns in Military AI [0.0]
我々は、軍事AIの設計、配備、使用における人権に関する懸念を評価するための3段階のフレームワークを提案する。
この枠組みにより、我々は、軍事作戦におけるAIの利点と人権を守る必要性のバランスをとることを目指している。
論文 参考訳(メタデータ) (2024-11-10T02:27:01Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Commercial AI, Conflict, and Moral Responsibility: A theoretical
analysis and practical approach to the moral responsibilities associated with
dual-use AI technology [2.050345881732981]
AIシステムのライフサイクルに関わるステークホルダは、合理的に予測可能なシステムの利用に対して道徳的に責任がある、と私たちは主張する。
我々は、市民AIの開発者が道徳的責任を軽減できるように、技術的に実現可能な3つのアクションを提示します。
論文 参考訳(メタデータ) (2024-01-30T18:09:45Z) - Moral Responsibility for AI Systems [8.919993498343159]
何らかの行動を行うエージェントの結果に対する道徳的責任は、因果的状態とてんかん的状態の両方を巻き込むために一般的に取られる。
本稿では,因果モデルの枠組みにおける両条件の形式的定義について述べる。
論文 参考訳(メタデータ) (2023-10-27T10:37:47Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - Hiding Behind Machines: When Blame Is Shifted to Artificial Agents [0.0]
この記事は、我々の代理として決定するエージェントの責任に焦点を当てます。
エージェントが人的であり、人間ではない場合に、エージェントによる道徳的結果の生成が、体系的に異なる判断を下すかどうかを検討する。
論文 参考訳(メタデータ) (2021-01-27T14:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。