論文の概要: Commercial AI, Conflict, and Moral Responsibility: A theoretical
analysis and practical approach to the moral responsibilities associated with
dual-use AI technology
- arxiv url: http://arxiv.org/abs/2402.01762v1
- Date: Tue, 30 Jan 2024 18:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 15:50:53.651128
- Title: Commercial AI, Conflict, and Moral Responsibility: A theoretical
analysis and practical approach to the moral responsibilities associated with
dual-use AI technology
- Title(参考訳): 商用AI、紛争、道徳責任:二元的AI技術に関連する道徳的責任に関する理論的分析と実践的アプローチ
- Authors: Daniel Trusilo and David Danks
- Abstract要約: AIシステムのライフサイクルに関わるステークホルダは、合理的に予測可能なシステムの利用に対して道徳的に責任がある、と私たちは主張する。
我々は、市民AIの開発者が道徳的責任を軽減できるように、技術的に実現可能な3つのアクションを提示します。
- 参考スコア(独自算出の注目度): 2.050345881732981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a theoretical analysis and practical approach to the
moral responsibilities when developing AI systems for non-military applications
that may nonetheless be used for conflict applications. We argue that AI
represents a form of crossover technology that is different from previous
historical examples of dual- or multi-use technology as it has a multiplicative
effect across other technologies. As a result, existing analyses of ethical
responsibilities around dual-use technologies do not necessarily work for AI
systems. We instead argue that stakeholders involved in the AI system lifecycle
are morally responsible for uses of their systems that are reasonably
foreseeable. The core idea is that an agent's moral responsibility for some
action is not necessarily determined by their intentions alone; we must also
consider what the agent could reasonably have foreseen to be potential outcomes
of their action, such as the potential use of a system in conflict even when it
is not designed for that. In particular, we contend that it is reasonably
foreseeable that: (1) civilian AI systems will be applied to active conflict,
including conflict support activities, (2) the use of civilian AI systems in
conflict will impact applications of the law of armed conflict, and (3)
crossover AI technology will be applied to conflicts that fall short of armed
conflict. Given these reasonably foreseeably outcomes, we present three
technically feasible actions that developers of civilian AIs can take to
potentially mitigate their moral responsibility: (a) establishing systematic
approaches to multi-perspective capability testing, (b) integrating digital
watermarking in model weight matrices, and (c) utilizing monitoring and
reporting mechanisms for conflict-related AI applications.
- Abstract(参考訳): 本稿では、非軍事的応用のためのAIシステムを開発する際の道徳的責任に関する理論的分析と実践的アプローチについて述べる。
我々は、AIは他の技術にまたがって乗算効果を持つため、従来の二元的または多元的技術の歴史的例とは異なる、クロスオーバー技術の一形態であると主張する。
結果として、デュアルユース技術に関する倫理的責任に関する既存の分析は、必ずしもAIシステムで機能するとは限らない。
代わりに私たちは、AIシステムのライフサイクルに関わるステークホルダーが、合理的に予測可能なシステムの使用に対して道徳的に責任があると主張する。
基本的には、ある行為に対するエージェントの道徳的責任は、その意図だけで決定されるとは限らない。我々はまた、エージェントが、その行為の潜在的な結果、例えば、そのために設計されていなくても、紛争中のシステムの潜在的な使用を予測できるものを考える必要がある。
特に,(1) 民間AIシステムが紛争支援活動を含む活発な紛争に適用されること,(2) 紛争における民間AIシステムの使用が武力紛争法の適用に影響を与えること,(3) クロスオーバーAI技術が武力紛争に該当しない紛争に適用されること,などが合理的に予測できる。
これらの合理的な結果を考えると、我々は市民AIの開発者が道徳的責任を和らげるために、技術的に実現可能な3つのアクションを提示します。
(a)マルチパースペクティブ能力テストの体系的アプローチを確立すること。
(b)模型重量行列に電子透かしを統合すること、
(c) 競合関連AIアプリケーションに対する監視および報告機構の利用。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Don't Kill the Baby: The Case for AI in Arbitration [0.0]
連邦航空局(FAA)は、従来の予約にもかかわらず、当事者がAIによる仲裁を契約的に選択することを許可していると論じている。
仲裁におけるAIの使用を提唱することで、契約上の自律性を尊重することの重要性を強調している。
最終的には、仲裁におけるAIに対するバランスの取れたオープンなアプローチを求め、紛争解決の効率性、公平性、柔軟性を高める可能性を認識している。
論文 参考訳(メタデータ) (2024-08-21T13:34:20Z) - The Switch, the Ladder, and the Matrix: Models for Classifying AI Systems [0.0]
AI倫理の原則と実践の間にはまだギャップがある。
AI倫理を運用しようとする組織が直面する大きな障害のひとつは、明確に定義された材料スコープの欠如である。
論文 参考訳(メタデータ) (2024-07-07T12:16:01Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Beneficent Intelligence: A Capability Approach to Modeling Benefit,
Assistance, and Associated Moral Failures through AI Systems [12.239090962956043]
AI倫理に関する一般的な言説は、AIシステムが個人と対話する際に生じる多様な倫理的懸念を捉えるのに必要な言語や形式主義を欠いている。
本稿では、利害関係者に有意義な利益や援助を与えるために、AIシステムに必要な倫理的概念と権利のネットワークを定式化する枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-01T22:38:14Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。