論文の概要: "Till I can get my satisfaction": Open Questions in the Public Desire to Punish AI
- arxiv url: http://arxiv.org/abs/2503.03383v1
- Date: Wed, 05 Mar 2025 10:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:52:48.926927
- Title: "Till I can get my satisfaction": Open Questions in the Public Desire to Punish AI
- Title(参考訳): 「私は満足できるだろう」:「公の願望」と「プンシッシュAI」
- Authors: Eddie L. Ungless, Zachary Horne, Björn Ross,
- Abstract要約: AIの処罰に対する大衆の期待は極めて過小評価されている。
我々は心理学、人間とコンピュータ、ロボットの相互作用、哲学、AI倫理から研究を合成する。
我々は、AI害の犠牲者をいかに最大限に満たせるかを確立するために、学際的な研究プログラムを要求します。
- 参考スコア(独自算出の注目度): 2.9357919636083265
- License:
- Abstract: There are countless examples of how AI can cause harm, and increasing evidence that the public are willing to ascribe blame to the AI itself, regardless of how "illogical" this might seem. This raises the question of whether and how the public might expect AI to be punished for this harm. However, public expectations of the punishment of AI have been vastly underexplored. Understanding these expectations is vital, as the public may feel the lingering effect of harm unless their desire for punishment is satisfied. We synthesise research from psychology, human-computer and -robot interaction, philosophy and AI ethics, and law to highlight how our understanding of this issue is still lacking. We call for an interdisciplinary programme of research to establish how we can best satisfy victims of AI harm, for fear of creating a "satisfaction gap" where legal punishment of AI (or not) fails to meet public expectations.
- Abstract(参考訳): AIがいかに害を引き起こすかの例は数え切れないほどあり、それがいかに「非論理的」に見えようとも、大衆がAI自体に責任を負う意思があるという証拠が増えている。
このことは、AIがこの害に対して罰せられるかどうか、一般大衆がどのように期待するかという疑問を提起する。
しかし、AIの処罰に対する大衆の期待は極めて過小評価されている。
これらの期待を理解することは、国民が罰に対する欲求を満たさない限り、害の波及効果を感じる可能性があるため、不可欠である。
私たちは心理学、人間とコンピュータ、ロボットの相互作用、哲学とAIの倫理、そして法から研究を合成し、この問題に対する我々の理解がまだ不足していることを強調します。
我々は、AIの法的な処罰が公の期待に届かない「満足の欠如」を生じさせることを恐れて、AI害の犠牲者をいかに最大限に満たせるかを確立するための学際的な研究プログラムを求めている。
関連論文リスト
- The Societal Response to Potentially Sentient AI [0.0]
現在、AIの知覚に関する公的な懐疑論は高いままである。
AIシステムが進歩し、人間のようなインタラクションに熟練するにつれて、公衆の態度はシフトする可能性がある。
重要な疑問は、AIの知覚に関する公的な信念が専門家の意見から分かれるかどうかである。
論文 参考訳(メタデータ) (2025-02-01T10:22:04Z) - Towards a Theory of AI Personhood [1.6317061277457001]
我々はAIの人格化に必要な条件を概説する。
もしAIシステムが人間と見なせるなら、AIアライメントの典型的な枠組みは不完全かもしれない。
論文 参考訳(メタデータ) (2025-01-23T10:31:26Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Role of Social Movements, Coalitions, and Workers in Resisting
Harmful Artificial Intelligence and Contributing to the Development of
Responsible AI [0.0]
あらゆる分野の連合は、AIの恥ずべき適用に抵抗するために世界中で活動している。
AIアルゴリズムにはバイアスがあり、不正で、乱雑な仮定が埋め込まれています。
AIの最大の貢献の1つは、人類の知恵が地球上でいかに重要かを理解することだ。
論文 参考訳(メタデータ) (2021-07-11T18:51:29Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Expected Utilitarianism [0.0]
私たちは、人工知能(AI)が役に立つことを望んでいる。これは、AI研究に対するほとんどの態度の根拠となる仮定である。
AIは人間を邪魔するのではなく、助けてもらいたい。しかし、この理論と実際が本当に関係しているものは、すぐには明らかではない。
このことから生じる結論が2つある。まず第一に、有益なAIが倫理的なAIであると信じているなら、"相応しい"と仮定するフレームワークは、最も多くの人にとって最も良いものへのタンタマウントである、というものである。
第2に、AIがRLに依存している場合、それ自身、環境、および他のエージェントの理由となる方法です。
論文 参考訳(メタデータ) (2020-07-19T15:44:04Z) - Ethical Considerations for AI Researchers [0.0]
人工知能の利用は、人々の生活に影響を与えるアプリケーションへと成長し、拡大しています。
害の可能性を秘めており、すでに世界中でその例が見られます。
AIの倫理は明確なものではないが、私たちが導入する影響を最小限に抑えるためのガイドラインがある。
論文 参考訳(メタデータ) (2020-06-13T04:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。