論文の概要: Why people judge humans differently from machines: The role of perceived
agency and experience
- arxiv url: http://arxiv.org/abs/2210.10081v2
- Date: Tue, 19 Sep 2023 13:40:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 20:31:23.369573
- Title: Why people judge humans differently from machines: The role of perceived
agency and experience
- Title(参考訳): 人間が機械と違う判断をする理由: 知覚機関と経験の役割
- Authors: Jingling Zhang, Jane Conway, C\'esar A. Hidalgo
- Abstract要約: 機械の判断は、機械がより多くのエージェンシーを持つが経験を積んでいないと認識するときに、人間の判断とよりよく似たものとなることを示す。
本研究は,人間と機械を判断するための異なる道徳哲学の活用が,心の知覚モデルの発展によって説明できることを示唆する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: People are known to judge artificial intelligence using a utilitarian moral
philosophy and humans using a moral philosophy emphasizing perceived
intentions. But why do people judge humans and machines differently? Psychology
suggests that people may have different mind perception models of humans and
machines, and thus, will treat human-like robots more similarly to the way they
treat humans. Here we present a randomized experiment where we manipulated
people's perception of machine agency (e.g., ability to plan, act) and
experience (e.g., ability to feel) to explore whether people judge machines
that are perceived to be more similar to humans along these two dimensions more
similarly to the way they judge humans. We find that people's judgments of
machines become more similar to that of humans when they perceive machines as
having more agency but not more experience. Our findings indicate that people's
use of different moral philosophies to judge humans and machines can be
explained by a progression of mind perception models where the perception of
agency plays a prominent role. These findings add to the body of evidence
suggesting that people's judgment of machines becomes more similar to that of
humans motivating further work on dimensions modulating people's judgment of
human and machine actions.
- Abstract(参考訳): 人工知能を実用主義的道徳哲学と、知覚された意図を強調する道徳哲学を用いて判断することが知られている。
しかし、なぜ人間と機械は違うのか?
心理学は、人々は人間と機械の異なる心の知覚モデルを持っているかもしれないことを示唆している。
ここでは,人間に類似していると認識された機械を,人間に類似していると判断するかどうかを,人間の判断の仕方とよく似た方法で検証するために,機械機関(例えば計画する能力,行動する能力)と経験(例えば感じる能力)を操作したランダム化実験を行う。
機械の判断は、機械がより多くのエージェンシーを持つがより経験を積まないと認識するときに、人間の判断とよりよく似たものとなる。
本研究は,人間と機械を判断するための異なる道徳哲学の活用が,エージェントの知覚が顕著な役割を果たす心的知覚モデルの進展によって説明できることを示す。
これらの知見は、機械の判断が人間や機械の行動の判断を調節する次元に関するさらなる研究を動機付ける人間の判断と、より類似していることを示す証拠の本体に付け加える。
関連論文リスト
- Do humans and machines have the same eyes? Human-machine perceptual
differences on image classification [8.474744196892722]
訓練されたコンピュータビジョンモデルは、トレーニングラベルから学んだ人間の振る舞いを模倣することにより、視覚課題を解決すると仮定される。
本研究はまず,2つの情報源からの誤りの統計的分布を定量化し,解析する。
我々は、人間や機械を単独で上回るポストホックな人間と機械のコラボレーションを実証的に実証する。
論文 参考訳(メタデータ) (2023-04-18T05:09:07Z) - Robots-Dont-Cry: Understanding Falsely Anthropomorphic Utterances in
Dialog Systems [64.10696852552103]
非常に人為的な反応は、ユーザーが人間と対話していると考えることを不快に、あるいは暗黙的に騙すかもしれない。
9つの異なるデータソースからサンプリングした約900の2ターンダイアログの実現可能性に関する人間の評価を収集する。
論文 参考訳(メタデータ) (2022-10-22T12:10:44Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Explain yourself! Effects of Explanations in Human-Robot Interaction [10.389325878657697]
ロボット決定の説明は、ユーザーの知覚に影響を与え、信頼性を正当化し、信頼を高める。
ロボットが人間の知覚に与える影響は、まだ十分に研究されていない。
本研究は、人間とロボットの相互作用を説明する必要性と可能性を示す。
論文 参考訳(メタデータ) (2022-04-09T15:54:27Z) - Reasoning about Counterfactuals to Improve Human Inverse Reinforcement
Learning [5.072077366588174]
人間は自然に、観察可能な行動について推論することで、他のエージェントの信念や欲求を推測する。
我々は,ロボットの意思決定に対する学習者の現在の理解を,人間のIRLモデルに組み込むことを提案する。
また,人間が見えない環境下でのロボットの動作を予測しにくいことを推定するための新しい尺度を提案する。
論文 参考訳(メタデータ) (2022-03-03T17:06:37Z) - I Need Your Advice... Human Perceptions of Robot Moral Advising
Behaviors [2.0743129221959284]
ロボットは道徳的助言のシナリオでどのようにコミュニケーションをとるべきかを探る。
我々の結果は、人間もロボットも、個人の生活に共通の利益をもたらすアドバイスを提供するときに、より肯定的に判断されることを示唆している。
これらの結果は、ロボットに対する人々の道徳的反応と自律的道徳的エージェントの設計に関する批判的な新しい疑問を提起する。
論文 参考訳(メタデータ) (2021-04-14T16:45:02Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - Robot self/other distinction: active inference meets neural networks
learning in a mirror [9.398766540452632]
ロボットがミラー上で非出現自認を行うことを可能にするアルゴリズムを提案する。
このアルゴリズムは、脳内の知覚と行動の理論モデルであるアクティブ推論とニューラルネットワーク学習を組み合わせる。
ヒューマノイドロボットの実験結果から,初期条件の異なるアルゴリズムの信頼性が示された。
論文 参考訳(メタデータ) (2020-04-11T19:51:47Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。