論文の概要: Artificial Intelligence and Arms Control
- arxiv url: http://arxiv.org/abs/2211.00065v1
- Date: Sat, 22 Oct 2022 16:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 15:04:46.483278
- Title: Artificial Intelligence and Arms Control
- Title(参考訳): 人工知能と腕制御
- Authors: Paul Scharre and Megan Lamberth
- Abstract要約: AIを搭載した軍事システムというアイデアは、一部の活動家に、一部の武器システムに対する制限や禁止を求める動機となった。
この論文は、AIのすべての軍事的応用が禁止される可能性は低いが、武器の制御が可能である特定のケースが存在すると論じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Potential advancements in artificial intelligence (AI) could have profound
implications for how countries research and develop weapons systems, and how
militaries deploy those systems on the battlefield. The idea of AI-enabled
military systems has motivated some activists to call for restrictions or bans
on some weapon systems, while others have argued that AI may be too diffuse to
control. This paper argues that while a ban on all military applications of AI
is likely infeasible, there may be specific cases where arms control is
possible. Throughout history, the international community has attempted to ban
or regulate weapons or military systems for a variety of reasons. This paper
analyzes both successes and failures and offers several criteria that seem to
influence why arms control works in some cases and not others. We argue that
success or failure depends on the desirability (i.e., a weapon's military value
versus its perceived horribleness) and feasibility (i.e., sociopolitical
factors that influence its success) of arms control. Based on these criteria,
and the historical record of past attempts at arms control, we analyze the
potential for AI arms control in the future and offer recommendations for what
policymakers can do today.
- Abstract(参考訳): 人工知能(ai)の潜在的な進歩は、各国が武器システムを研究し開発する方法や、そのシステムを戦場に展開する方法に大きな影響を与える可能性がある。
AIを搭載した軍事システムというアイデアは、一部の活動家に、一部の武器システムに対する制限や禁止を求める動機となった。
この論文は、AIのすべての軍事的応用が禁止される可能性は低いが、武器の制御が可能である特定のケースが存在すると論じている。
歴史を通じて、国際社会は様々な理由で武器や軍事システムを禁止または規制しようとしてきた。
本稿では,成功と失敗の両方を分析し,アームコントロールが機能する理由に影響を及ぼすような基準をいくつか提示する。
我々は、成功か失敗かは、武器の軍事的価値と認識される恐ろしいこと)と実現可能性(すなわち、その成功に影響を及ぼす社会政治学的要因)にかかっていると論じる。
これらの基準と過去の武器制御の試みの歴史的記録に基づいて、我々は未来のAI兵器制御の可能性を分析し、政策立案者が今日何ができるかを推奨する。
関連論文リスト
- Towards evaluations-based safety cases for AI scheming [37.399946932069746]
本論では,安全事例がスケジューリングに有効である,という3つの論点を提案する。
第一に、フロンティアAIシステムの開発者は、AIシステムはスケジューリングができないと主張するかもしれない。
第二に、AIシステムはスケジューリングによって害を与えることができない、という主張もある。
第三に、AIシステムが意図的にそれらを覆そうと試みても、AIシステムを取り巻く制御手段が受け入れられない結果を防ぐと論じることもできる。
論文 参考訳(メタデータ) (2024-10-29T17:55:29Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - A Technological Perspective on Misuse of Available AI [41.94295877935867]
民間人工知能(AI)の悪意ある誤用は、国家や国際レベルでのセキュリティに深刻な脅威をもたらす可能性がある。
既存のオープンなAI技術が、いかに誤用されているかを示します。
我々は、政治的、デジタル的、物理的セキュリティを脅かす、潜在的に誤用されたAIの典型的なユースケースを3つ開発する。
論文 参考訳(メタデータ) (2024-03-22T16:30:58Z) - A Call to Arms: AI Should be Critical for Social Media Analysis of
Conflict Zones [5.479613761646247]
本稿では、コンピュータビジョンを用いて、特定の武器システムとそれを用いた武装集団の署名を特定するための予備的、横断的な作業について述べる。
武器の配布方法を追跡するだけでなく、ウクライナの様々な種類の国家や非国家の軍事俳優がどの種類の武器を使用しているかを追跡する可能性がある。
このようなシステムは、人道支援や医療援助がもっとも必要となる場所を含む、リアルタイムでの紛争を理解するために最終的に使用できる。
論文 参考訳(メタデータ) (2023-11-01T19:49:32Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On Controllability of AI [1.370633147306388]
我々は、高度なAIを完全に制御できないことを示す証拠だけでなく、議論も提示する。
人類の未来とAI研究、そしてAIの安全性とセキュリティについて、AIの制御不能な結果について議論する。
論文 参考訳(メタデータ) (2020-07-19T02:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。