論文の概要: Balancing Power and Ethics: A Framework for Addressing Human Rights Concerns in Military AI
- arxiv url: http://arxiv.org/abs/2411.06336v1
- Date: Sun, 10 Nov 2024 02:27:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:13:03.455679
- Title: Balancing Power and Ethics: A Framework for Addressing Human Rights Concerns in Military AI
- Title(参考訳): 権力と倫理のバランスをとる - 軍事AIにおける人権問題に対処するためのフレームワーク
- Authors: Mst Rafia Islam, Azmine Toushik Wasi,
- Abstract要約: 我々は、軍事AIの設計、配備、使用における人権に関する懸念を評価するための3段階のフレームワークを提案する。
この枠組みにより、我々は、軍事作戦におけるAIの利点と人権を守る必要性のバランスをとることを目指している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: AI has made significant strides recently, leading to various applications in both civilian and military sectors. The military sees AI as a solution for developing more effective and faster technologies. While AI offers benefits like improved operational efficiency and precision targeting, it also raises serious ethical and legal concerns, particularly regarding human rights violations. Autonomous weapons that make decisions without human input can threaten the right to life and violate international humanitarian law. To address these issues, we propose a three-stage framework (Design, In Deployment, and During/After Use) for evaluating human rights concerns in the design, deployment, and use of military AI. Each phase includes multiple components that address various concerns specific to that phase, ranging from bias and regulatory issues to violations of International Humanitarian Law. By this framework, we aim to balance the advantages of AI in military operations with the need to protect human rights.
- Abstract(参考訳): AIは最近大きな進歩を遂げ、民間部門と軍事部門の両方に様々な応用をもたらしている。
軍はAIを、より効率的で高速な技術を開発するためのソリューションだと考えている。
AIは、運用効率の改善や精度のターゲティングといったメリットを提供する一方で、特に人権侵害に関して、重大な倫理的および法的懸念を提起する。
人間の入力なしに決定を下す自律兵器は、生命の権利を脅かし、国際人道法に違反する可能性がある。
これらの問題に対処するために、我々は、軍事AIの設計、配備、使用における人権の懸念を評価するための3段階のフレームワーク(設計、配置、継続/使用)を提案する。
各フェーズには、バイアスや規制の問題から国際人道法違反まで、そのフェーズに特有のさまざまな懸念に対処する複数のコンポーネントが含まれている。
この枠組みにより、我々は、軍事作戦におけるAIの利点と人権を守る必要性のバランスをとることを目指している。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Human Oversight of Artificial Intelligence and Technical Standardisation [0.0]
AIのグローバルガバナンスの中で、人間の監視の要件は、いくつかの規制形式に具体化されている。
そのため、欧州連合(EU)の立法府は、人間の監督に対する法的要件を「取り除く」ために、過去よりもはるかに進んでいる。
AI意思決定プロセスにおける人間の位置に関する疑問は、特に注目されるべきである。
論文 参考訳(メタデータ) (2024-07-02T07:43:46Z) - AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - Citizen Perspectives on Necessary Safeguards to the Use of AI by Law
Enforcement Agencies [0.0]
本研究は,111人の市民のインタビューを通じて,警察によるAI利用に対する見解を探るものである。
サイバー犯罪やテロリズムの文脈において、LEAによるAI使用のネガティブな影響からの保護の提案とともに、社会的な懸念を統合している。
論文 参考訳(メタデータ) (2023-05-31T12:26:34Z) - Bad, mad, and cooked: Moral responsibility for civilian harms in
human-AI military teams [0.0]
この章では、人文知能(AI)チームによる民間の損害に対する道徳的責任について論じる。
軍事力の増大は、不適切な意思決定環境に配置することで、良いリンゴを「調理」する可能性がある。
この章は、人間-AIチームにおける道徳的責任の条件をマップアウトするための新しいメカニズムを提供する。
論文 参考訳(メタデータ) (2022-10-31T10:18:20Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Developing a Trusted Human-AI Network for Humanitarian Benefit [0.0]
我々は、コミュニケーションプロトコル、分散台帳技術、人工知能(AI)との情報融合の統合を検討する。
このような信頼された人間-AIコミュニケーションネットワークは、人間と機械の紛争における保護された実体、重要なインフラ、人道的信号、ステータス更新に関する説明可能な情報交換を提供することができる。
論文 参考訳(メタデータ) (2021-12-07T11:58:51Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。