論文の概要: The Conflict Between People's Urge to Punish AI and Legal Systems
- arxiv url: http://arxiv.org/abs/2003.06507v3
- Date: Thu, 11 Nov 2021 02:36:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 02:07:45.403738
- Title: The Conflict Between People's Urge to Punish AI and Legal Systems
- Title(参考訳): aiと法制度を罰する人々の衝動の衝突
- Authors: Gabriel Lima, Meeyoung Cha, Chihyung Jeon, Kyungsin Park
- Abstract要約: 本研究は、電子的法的人格の既存責任モデルに対する人々の見解を得るための2つの研究である。
本研究は,これらの組織が精神状態を認識していないにもかかわらず,自動化されたエージェントを処罰したいという人々の欲求を明らかにするものである。
我々は、将来の設計と法的決定が、自動化されたエージェントの不正行為に対する大衆の反応にどのように影響するかを議論することで締めくくります。
- 参考スコア(独自算出の注目度): 12.935691101666453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regulating artificial intelligence (AI) has become necessary in light of its
deployment in high-risk scenarios. This paper explores the proposal to extend
legal personhood to AI and robots, which had not yet been examined through the
lens of the general public. We present two studies (N = 3,559) to obtain
people's views of electronic legal personhood vis-\`a-vis existing liability
models. Our study reveals people's desire to punish automated agents even
though these entities are not recognized any mental state. Furthermore, people
did not believe automated agents' punishment would fulfill deterrence nor
retribution and were unwilling to grant them legal punishment preconditions,
namely physical independence and assets. Collectively, these findings suggest a
conflict between the desire to punish automated agents and its perceived
impracticability. We conclude by discussing how future design and legal
decisions may influence how the public reacts to automated agents' wrongdoings.
- Abstract(参考訳): リスクの高いシナリオに展開するためには、人工知能(AI)の規制が必要である。
本稿では、一般市民のレンズを通してまだ検討されていないAIやロボットに法的人格を拡大する提案について検討する。
本研究は,電子的法的人格に対する人々の見解を得るための2つの研究 (N = 3,559) を提示する。
本研究は,これらの組織が精神状態を認識していないにもかかわらず,自動化されたエージェントを処罰したいという人々の欲求を明らかにするものである。
さらに、自動エージェントの刑罰が抑止や報復を果たすとは考えておらず、法的処罰、すなわち身体的独立と資産を事前に認めることを望まなかった。
これらの知見は、自動化されたエージェントを罰したいという欲求と、その非現実性に対する認識との間に矛盾を示唆している。
我々は、将来の設計と法的決定が、自動化エージェントの不正行為に対する大衆の反応にどのように影響するかを議論することで締めくくった。
関連論文リスト
- Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Towards a Theory of AI Personhood [1.6317061277457001]
我々はAIの人格化に必要な条件を概説する。
もしAIシステムが人間と見なせるなら、AIアライメントの典型的な枠組みは不完全かもしれない。
論文 参考訳(メタデータ) (2025-01-23T10:31:26Z) - Exploring the Impact of Rewards on Developers' Proactive AI Accountability Behavior [0.0]
我々は、報酬と制裁がAI開発者に与える影響を明らかにするために、自己決定理論に基づく理論モデルを開発する。
各種ドメインの関連研究を調査した結果,典型的な制裁措置とバグ報奨金は潜在的報酬メカニズムとして同定された。
論文 参考訳(メタデータ) (2024-11-27T14:34:44Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - The Ethics of Automating Legal Actors [58.81546227716182]
我々は、裁判官の役割の自動化は、特に一般的な法体系において、難しい倫理的課題を提起すると主張している。
我々の主張は、単に法律を適用するのではなく、法律を積極的に形成する際の裁判官の社会的役割から従う。
モデルが人間レベルの能力を達成できたとしても、法的プロセスの自動化に固有の倫理的懸念は残るだろう。
論文 参考訳(メタデータ) (2023-12-01T13:48:46Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Immune Moral Models? Pro-Social Rule Breaking as a Moral Enhancement
Approach for Ethical AI [0.17188280334580192]
倫理的行動は、人間中心のAIで私たちが望む重要な特徴です。
AIエージェントをより人間中心にするためには、AIエージェントがルールを破るタイミングを特定するのに役立つメカニズムが必要である、と私たちは主張する。
論文 参考訳(メタデータ) (2021-06-17T18:44:55Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - Collecting the Public Perception of AI and Robot Rights [10.791267046450077]
欧州議会は先進的なロボットに「電子的個性」を付与する提案
本論文は,将来自律型電子工作員に付与可能な11の可能な権利について,オンライン利用者の最初の印象を収集する。
論文 参考訳(メタデータ) (2020-08-04T05:35:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。