論文の概要: Collecting the Public Perception of AI and Robot Rights
- arxiv url: http://arxiv.org/abs/2008.01339v1
- Date: Tue, 4 Aug 2020 05:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 01:08:28.272542
- Title: Collecting the Public Perception of AI and Robot Rights
- Title(参考訳): AIとロボットの権利の公的な認識を集める
- Authors: Gabriel Lima, Changyeon Kim, Seungho Ryu, Chihyung Jeon, Meeyoung Cha
- Abstract要約: 欧州議会は先進的なロボットに「電子的個性」を付与する提案
本論文は,将来自律型電子工作員に付与可能な11の可能な権利について,オンライン利用者の最初の印象を収集する。
- 参考スコア(独自算出の注目度): 10.791267046450077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whether to give rights to artificial intelligence (AI) and robots has been a
sensitive topic since the European Parliament proposed advanced robots could be
granted "electronic personalities." Numerous scholars who favor or disfavor its
feasibility have participated in the debate. This paper presents an experiment
(N=1270) that 1) collects online users' first impressions of 11 possible rights
that could be granted to autonomous electronic agents of the future and 2)
examines whether debunking common misconceptions on the proposal modifies one's
stance toward the issue. The results indicate that even though online users
mainly disfavor AI and robot rights, they are supportive of protecting
electronic agents from cruelty (i.e., favor the right against cruel treatment).
Furthermore, people's perceptions became more positive when given information
about rights-bearing non-human entities or myth-refuting statements. The style
used to introduce AI and robot rights significantly affected how the
participants perceived the proposal, similar to the way metaphors function in
creating laws. For robustness, we repeated the experiment over a more
representative sample of U.S. residents (N=164) and found that perceptions
gathered from online users and those by the general population are similar.
- Abstract(参考訳): 人工知能(ai)とロボットに権利を与えるかは、欧州議会が先進的なロボットに「電子的個性」を与えることができると提案して以来、センシティブな話題となっている。
その実現を好む、あるいは否定する多くの学者がこの議論に参加した。
本稿では,N=1270の実験を行う。
1) 将来の自律型電子エージェントに付与される可能性のある11の権利に関するオンラインユーザの最初の印象を収集する。
2 提案に関する共通誤解が問題に対する態度を変えるか否かを検討する。
その結果、オンラインユーザーは主にAIとロボットの権利を嫌うが、電子エージェントを残酷な扱いから保護することを支持している(すなわち、残酷な扱いに対する権利を支持する)。
さらに、権利を持つ非人間的存在や神話を否定する言明に関する情報が与えられたことで、人々の認識はより肯定的になった。
aiとロボットの権利を導入するのに使われたスタイルは、参加者が提案をどのように認識するかに大きく影響した。
頑健性のために、米国住民のより代表的なサンプル(n=164)で実験を繰り返し、オンライン利用者や一般住民の認識が類似していることを発見した。
関連論文リスト
- Training Is Everything: Artificial Intelligence, Copyright, and Fair
Training [9.653656920225858]
著者: そうしたコンテンツを使ってAIエンジンをトレーニングしている企業は、そのような使用は「フェアユース」であるべきだと信じていることが多い。
著作者: 著作権所有者は、その支持者とともに、著作権のある著作物をAIのトレーニングセットに組み入れ、所有者の知的財産の誤った評価を構成することを検討する。
我々はこの議論の両側で強い議論と刺激的な議論の両方を識別する。
論文 参考訳(メタデータ) (2023-05-04T04:01:00Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Artificial Influence: An Analysis Of AI-Driven Persuasion [0.0]
ユビキタスで高説得力のあるAIシステムは、私たちの情報環境を大きく変えて、私たちの将来の人間のコントロールを失うのに寄与する、と警告する。
われわれは、これらのソリューションはどれも監視されていないと結論し、個人や政府は、説得力のあるAIの最も悪影響から守るために、積極的な措置を講じる必要があると結論付けている。
論文 参考訳(メタデータ) (2023-03-15T16:05:11Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Explain yourself! Effects of Explanations in Human-Robot Interaction [10.389325878657697]
ロボット決定の説明は、ユーザーの知覚に影響を与え、信頼性を正当化し、信頼を高める。
ロボットが人間の知覚に与える影響は、まだ十分に研究されていない。
本研究は、人間とロボットの相互作用を説明する必要性と可能性を示す。
論文 参考訳(メタデータ) (2022-04-09T15:54:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Conflict Between People's Urge to Punish AI and Legal Systems [12.935691101666453]
本研究は、電子的法的人格の既存責任モデルに対する人々の見解を得るための2つの研究である。
本研究は,これらの組織が精神状態を認識していないにもかかわらず,自動化されたエージェントを処罰したいという人々の欲求を明らかにするものである。
我々は、将来の設計と法的決定が、自動化されたエージェントの不正行為に対する大衆の反応にどのように影響するかを議論することで締めくくります。
論文 参考訳(メタデータ) (2020-03-13T23:19:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。