論文の概要: Spotlight Session on Autonomous Weapons Systems at ICRC 34th International Conference
- arxiv url: http://arxiv.org/abs/2411.08890v1
- Date: Mon, 28 Oct 2024 05:36:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-17 09:02:15.203256
- Title: Spotlight Session on Autonomous Weapons Systems at ICRC 34th International Conference
- Title(参考訳): 第34回ICRC国際会議における自律兵器システムに関するスポットライトセッション
- Authors: Susannah Kate Conroy,
- Abstract要約: 政府は兵器システムの要件を設定する責任がある。
彼らは倫理と致死の責任を負う。
国連は、IHLの遵守、人権、人間中心の兵器システムの使用を提唱することができる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Autonomous weapons systems (AWS) change the way humans make decisions, the effect of those decisions and who is accountable for decisions made. We must remain vigilant, informed and human-centred as we tackle our deliberations on developing norms regarding their development, use and justification. Ways to enhance compliance in international humanitarian law (IHL) include: Training weapons decision makers in IHL; developing best practice in weapons reviews including requirements for industry to ensure that any new weapon, means or method of warfare is capable of being used lawfully; develop human-centred test and evaluation methods; invest in digital infrastructure to increase knowledge of the civilian environment in a conflict and its dynamics; invest in research on the real effects and consequences of civilian harms to the achievement of military and political objectives; improve secure communications between stakeholders in a conflict; and finally to upskill governments and NGOs in what is technically achievable with emerging technologies so that they can contribute to system requirements, test and evaluation protocols and operational rules of use and engagement. Governments are responsible for setting requirements for weapons systems. They are responsible for driving ethicality as well as lethality. Governments can require systems to be made and used to better protect civilians and protected objects. The UN can advocate for compliance with IHL, human rights, human-centred use of weapons systems and improved mechanisms to monitor and trace military decision making including those decisions affected by autonomous functionality.
- Abstract(参考訳): 自律兵器システム(AWS)は、人間による意思決定の仕方、その決定の効果、意思決定に責任を負う人物を変える。
私たちは、彼らの開発、使用、正当化に関する規範の策定に関する我々の議論に取り組むため、警戒し、情報を提供し、人間中心にしなければなりません。
国際人道法(IHL)のコンプライアンスを強化する方法には、IHLにおける武器決定の訓練、新しい兵器、手段、戦法が合法的に使用できることを保証するための産業の要件を含む、武器レビューにおけるベストプラクティスの開発、人間中心のテストおよび評価方法の開発、紛争やそのダイナミックスにおける民間環境の知識を高めるためのデジタルインフラへの投資、軍事的および政治的目的の達成に対する民間の害の実効と結果の研究への投資、紛争における利害関係者間のセキュアなコミュニケーションの改善、新技術で技術的に達成可能なものに関する政府とNGOの強化、システム要件、試験および運用規則および運用規則への貢献を可能にするための技術革新などが含まれる。
政府は兵器システムの要件を設定する責任がある。
彼らは倫理と致死の責任を負う。
政府は、民間人や保護対象をよりよく保護するために、システムの構築と使用を要求できる。
国連は、IHLの遵守、人権、人間中心の兵器システムの使用、自動機能による決定を含む軍事的決定の監視と追跡のメカニズムの改善を提唱することができる。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Mind the Gap: Foundation Models and the Covert Proliferation of Military Intelligence, Surveillance, and Targeting [0.0]
我々は、個人識別可能な情報がISTAR能力に寄与するのを防ぐことができないことが、敵による軍事AI技術の使用と普及に繋がることを示した。
我々は、軍事システムを確保し、AI兵器の普及を制限するためには、軍用AIシステムと個人データを商業基盤モデルから絶縁する必要があると結論付けている。
論文 参考訳(メタデータ) (2024-10-18T19:04:30Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Commercial AI, Conflict, and Moral Responsibility: A theoretical
analysis and practical approach to the moral responsibilities associated with
dual-use AI technology [2.050345881732981]
AIシステムのライフサイクルに関わるステークホルダは、合理的に予測可能なシステムの利用に対して道徳的に責任がある、と私たちは主張する。
我々は、市民AIの開発者が道徳的責任を軽減できるように、技術的に実現可能な3つのアクションを提示します。
論文 参考訳(メタデータ) (2024-01-30T18:09:45Z) - Meaningful human command: Advance control directives as a method to
enable moral and legal responsibility for autonomous weapons systems [0.0]
この章では、人間が契約を締結することで、自律システムに対する行動を認めることができるかどうかを考察する。
アドバンス・ケア・ディレクティブ」に見られる医学的法的なプレクデントは、どのように時間を要する熟考プロセスがリアルタイムで達成可能かを示唆している。
この章では、自律システムの展開に先立って、ACDの構築を通じて足場を組み、合法化された「自律コマンド」を提案している。
論文 参考訳(メタデータ) (2023-03-13T02:12:51Z) - Bad, mad, and cooked: Moral responsibility for civilian harms in
human-AI military teams [0.0]
この章では、人文知能(AI)チームによる民間の損害に対する道徳的責任について論じる。
軍事力の増大は、不適切な意思決定環境に配置することで、良いリンゴを「調理」する可能性がある。
この章は、人間-AIチームにおける道徳的責任の条件をマップアウトするための新しいメカニズムを提供する。
論文 参考訳(メタデータ) (2022-10-31T10:18:20Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z) - Politics of Adversarial Machine Learning [0.7837881800517111]
敵の機械学習攻撃と防衛には政治的側面がある。
機械学習システムの主題とそれらをデプロイする人たちの両方に対して、特定のオプションを有効または前置する。
本稿では、敵攻撃に対する防御が、反抗を抑え、機械学習システムの調査を制限するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-02-01T01:15:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。