論文の概要: AI Can Stop Mass Shootings, and More
- arxiv url: http://arxiv.org/abs/2102.09343v1
- Date: Fri, 5 Feb 2021 06:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:31:35.946897
- Title: AI Can Stop Mass Shootings, and More
- Title(参考訳): AIは大量射撃などを止めることができる
- Authors: Selmer Bringsjord and Naveen Sundar Govindarajulu and Michael Giancola
- Abstract要約: 倫理的な推論に耐え、マスシューティングを阻止できるAIの青空のアイデアを現実に作り出すことを提案します。
2つのシミュレーションを提案し、1つはAIが悪意ある人間の銃をロックアウトすることで無実の人の命を救い、もう1つはAIによって悪質なエージェントが法執行機関によって中立化されることを許す。
- 参考スコア(独自算出の注目度): 5.629161809575013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose to build directly upon our longstanding, prior r&d in AI/machine
ethics in order to attempt to make real the blue-sky idea of AI that can thwart
mass shootings, by bringing to bear its ethical reasoning. The r&d in question
is overtly and avowedly logicist in form, and since we are hardly the only ones
who have established a firm foundation in the attempt to imbue AI's with their
own ethical sensibility, the pursuit of our proposal by those in different
methodological camps should, we believe, be considered as well. We seek herein
to make our vision at least somewhat concrete by anchoring our exposition to
two simulations, one in which the AI saves the lives of innocents by locking
out a malevolent human's gun, and a second in which this malevolent agent is
allowed by the AI to be neutralized by law enforcement. Along the way, some
objections are anticipated, and rebutted.
- Abstract(参考訳): 我々は、AI/機械倫理における長年のr&dに基づいて直接構築することを提案し、その倫理的理由に対処することによって、大量射撃を阻止できるAIのブルースキーなアイデアの実現を試みる。
問題となっているr&dは形式的に過度に論理主義的であり、AIに倫理的感受性を持たせるためにしっかりとした基盤を築いてきたのは私たちだけではないので、異なる方法論のキャンプの人たちによる提案の追求も考慮されるべきである。
我々は、私たちの表現を2つのシミュレーションに固定することで、少なくともある程度具体化することを目指しています。1つは、aiが邪悪な人間の銃をロックアウトすることで罪のない人々の命を救っているもの、もう1つは、aiによってこの悪質なエージェントが法執行機関によって中立化されることを許可されているもの、です。
途中、いくつかの異論が予想され、反論される。
関連論文リスト
- Taking AI Welfare Seriously [0.5617572524191751]
我々は、近い将来、一部のAIシステムが意識的または堅牢に作用する可能性があると論じている。
これは近い将来の問題であり、AI企業や他のアクターはそれを真剣に取り始める責任がある。
論文 参考訳(メタデータ) (2024-11-04T17:57:57Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - There and Back Again: The AI Alignment Paradox [10.674155943520729]
AIモデルを私たちの価値観と整合させるほど、敵がモデルを誤アライズすることが容易になります。
AIの現実世界への影響が増大しているため、研究者の広いコミュニティがAIアライメントパラドックスを認識していることが不可欠である。
論文 参考訳(メタデータ) (2024-05-31T14:06:24Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Some Critical and Ethical Perspectives on the Empirical Turn of AI
Interpretability [0.0]
我々は、現在人工知能開発で直面している2つの問題、すなわち、倫理の欠如とAI決定の解釈可能性の欠如について考察する。
実験により,説明書作成の実証的かつリベラルな転換は,否定力の低いAI説明を選択する傾向にあることを示した。
我々は、倫理的AIの今後の発展のためのシナリオとして、より外部規制やAI説明の自由化の2つを提案する。
論文 参考訳(メタデータ) (2021-09-20T14:41:50Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Expected Utilitarianism [0.0]
私たちは、人工知能(AI)が役に立つことを望んでいる。これは、AI研究に対するほとんどの態度の根拠となる仮定である。
AIは人間を邪魔するのではなく、助けてもらいたい。しかし、この理論と実際が本当に関係しているものは、すぐには明らかではない。
このことから生じる結論が2つある。まず第一に、有益なAIが倫理的なAIであると信じているなら、"相応しい"と仮定するフレームワークは、最も多くの人にとって最も良いものへのタンタマウントである、というものである。
第2に、AIがRLに依存している場合、それ自身、環境、および他のエージェントの理由となる方法です。
論文 参考訳(メタデータ) (2020-07-19T15:44:04Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。