論文の概要: Collecting the Public Perception of AI and Robot Rights
- arxiv url: http://arxiv.org/abs/2008.01339v1
- Date: Tue, 4 Aug 2020 05:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 01:08:28.272542
- Title: Collecting the Public Perception of AI and Robot Rights
- Title(参考訳): AIとロボットの権利の公的な認識を集める
- Authors: Gabriel Lima, Changyeon Kim, Seungho Ryu, Chihyung Jeon, Meeyoung Cha
- Abstract要約: 欧州議会は先進的なロボットに「電子的個性」を付与する提案
本論文は,将来自律型電子工作員に付与可能な11の可能な権利について,オンライン利用者の最初の印象を収集する。
- 参考スコア(独自算出の注目度): 10.791267046450077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whether to give rights to artificial intelligence (AI) and robots has been a
sensitive topic since the European Parliament proposed advanced robots could be
granted "electronic personalities." Numerous scholars who favor or disfavor its
feasibility have participated in the debate. This paper presents an experiment
(N=1270) that 1) collects online users' first impressions of 11 possible rights
that could be granted to autonomous electronic agents of the future and 2)
examines whether debunking common misconceptions on the proposal modifies one's
stance toward the issue. The results indicate that even though online users
mainly disfavor AI and robot rights, they are supportive of protecting
electronic agents from cruelty (i.e., favor the right against cruel treatment).
Furthermore, people's perceptions became more positive when given information
about rights-bearing non-human entities or myth-refuting statements. The style
used to introduce AI and robot rights significantly affected how the
participants perceived the proposal, similar to the way metaphors function in
creating laws. For robustness, we repeated the experiment over a more
representative sample of U.S. residents (N=164) and found that perceptions
gathered from online users and those by the general population are similar.
- Abstract(参考訳): 人工知能(ai)とロボットに権利を与えるかは、欧州議会が先進的なロボットに「電子的個性」を与えることができると提案して以来、センシティブな話題となっている。
その実現を好む、あるいは否定する多くの学者がこの議論に参加した。
本稿では,N=1270の実験を行う。
1) 将来の自律型電子エージェントに付与される可能性のある11の権利に関するオンラインユーザの最初の印象を収集する。
2 提案に関する共通誤解が問題に対する態度を変えるか否かを検討する。
その結果、オンラインユーザーは主にAIとロボットの権利を嫌うが、電子エージェントを残酷な扱いから保護することを支持している(すなわち、残酷な扱いに対する権利を支持する)。
さらに、権利を持つ非人間的存在や神話を否定する言明に関する情報が与えられたことで、人々の認識はより肯定的になった。
aiとロボットの権利を導入するのに使われたスタイルは、参加者が提案をどのように認識するかに大きく影響した。
頑健性のために、米国住民のより代表的なサンプル(n=164)で実験を繰り返し、オンライン利用者や一般住民の認識が類似していることを発見した。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Consent in Crisis: The Rapid Decline of the AI Data Commons [74.68176012363253]
汎用人工知能(AI)システムは、大量の公開Webデータに基づいて構築されている。
我々は,AIトレーニングコーパスに基づくWebドメインに対する同意プロトコルの大規模かつ長期的監査を行う。
論文 参考訳(メタデータ) (2024-07-20T16:50:18Z) - What Do People Think about Sentient AI? [0.0]
先進的AIの話題に関する全国的に代表的な調査データを提示する。
2021年に1波、2023年に2波のデータ収集を行い、AIの幸福に対する心の認識と道徳的懸念は予想以上に高かった。
我々は、AIが賢明になるかどうかに関わらず、議論そのものが人間とコンピュータのインタラクションをオーバーホールするかもしれないと論じる。
論文 参考訳(メタデータ) (2024-07-11T21:04:39Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Debunking Robot Rights Metaphysically, Ethically, and Legally [0.10241134756773229]
マシンは、否定されたり、権利を与えられたりするものではない、と我々は主張する。
法的見地からすると、ロボットの権利の最良の類推は人権ではなく企業の権利である。
論文 参考訳(メタデータ) (2024-04-15T18:23:58Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Artificial Influence: An Analysis Of AI-Driven Persuasion [0.0]
ユビキタスで高説得力のあるAIシステムは、私たちの情報環境を大きく変えて、私たちの将来の人間のコントロールを失うのに寄与する、と警告する。
われわれは、これらのソリューションはどれも監視されていないと結論し、個人や政府は、説得力のあるAIの最も悪影響から守るために、積極的な措置を講じる必要があると結論付けている。
論文 参考訳(メタデータ) (2023-03-15T16:05:11Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Conflict Between People's Urge to Punish AI and Legal Systems [12.935691101666453]
本研究は、電子的法的人格の既存責任モデルに対する人々の見解を得るための2つの研究である。
本研究は,これらの組織が精神状態を認識していないにもかかわらず,自動化されたエージェントを処罰したいという人々の欲求を明らかにするものである。
我々は、将来の設計と法的決定が、自動化されたエージェントの不正行為に対する大衆の反応にどのように影響するかを議論することで締めくくります。
論文 参考訳(メタデータ) (2020-03-13T23:19:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。