論文の概要: Why do people judge humans differently from machines? The role of agency
and experience
- arxiv url: http://arxiv.org/abs/2210.10081v1
- Date: Tue, 18 Oct 2022 18:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 15:21:14.163428
- Title: Why do people judge humans differently from machines? The role of agency
and experience
- Title(参考訳): なぜ人間と機械の区別が違うのか?
代理店の役割と経験
- Authors: Jingling Zhang, Jane Conway, C\'esar A. Hidalgo
- Abstract要約: 我々は,機械の判断が,機械をより多くのエージェンシーを持つものとして知覚するときに,人間の判断とよりよく似たものとなることを示す。
本研究は,人間と機械を判断するための異なる道徳哲学の活用が,心の知覚モデルの発展によって説明できることを示唆する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: People are known to judge artificial intelligence using a utilitarian moral
philosophy and humans using a moral philosophy emphasizing perceived
intentions. But why do people judge humans and machines differently? Psychology
suggests that people may have different mind perception models for humans and
machines, and thus, will treat human-like robots more similarly to the way they
treat humans. Here we present a randomized experiment where we manipulated
people's perception of machines to explore whether people judge more human-like
machines more similarly to the way they judge humans. We find that people's
judgments of machines become more similar to that of humans when they perceive
machines as having more agency (e.g. ability to plan, act), but not more
experience (e.g. ability to feel). Our findings indicate that people's use of
different moral philosophies to judge humans and machines can be explained by a
progression of mind perception models where the perception of agency plays a
prominent role. These findings add to the body of evidence suggesting that
people's judgment of machines becomes more similar to that of humans motivating
further work on differences in the judgment of human and machine actions.
- Abstract(参考訳): 人工知能を実用主義的道徳哲学と、知覚された意図を強調する道徳哲学を用いて判断することが知られている。
しかし、なぜ人間と機械は違うのか?
心理学は、人々は人間と機械のために異なる心の知覚モデルを持っているかもしれないことを示唆している。
ここでは,機械に対する認識を操り,より人間的な機械を判断するかどうかを探索するランダム化実験を行った。
機械に対する人々の判断は、機械がよりエージェンシー(例えば、計画する能力、行動する能力)を持っていると認識した場合、人間の判断とより似ているが、経験は多くない(例えば、感じる能力)。
本研究は,人間と機械を判断するための異なる道徳哲学の活用が,エージェントの知覚が顕著な役割を果たす心的知覚モデルの進展によって説明できることを示す。
これらの知見は、機械の判断が人間と機械の行動の判断の違いに関するさらなる研究を動機づける人間の判断とよりよく似たものとなることを示す証拠の本体に繋がる。
関連論文リスト
- Do humans and machines have the same eyes? Human-machine perceptual
differences on image classification [8.474744196892722]
訓練されたコンピュータビジョンモデルは、トレーニングラベルから学んだ人間の振る舞いを模倣することにより、視覚課題を解決すると仮定される。
本研究はまず,2つの情報源からの誤りの統計的分布を定量化し,解析する。
我々は、人間や機械を単独で上回るポストホックな人間と機械のコラボレーションを実証的に実証する。
論文 参考訳(メタデータ) (2023-04-18T05:09:07Z) - Robots-Dont-Cry: Understanding Falsely Anthropomorphic Utterances in
Dialog Systems [64.10696852552103]
非常に人為的な反応は、ユーザーが人間と対話していると考えることを不快に、あるいは暗黙的に騙すかもしれない。
9つの異なるデータソースからサンプリングした約900の2ターンダイアログの実現可能性に関する人間の評価を収集する。
論文 参考訳(メタデータ) (2022-10-22T12:10:44Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Explain yourself! Effects of Explanations in Human-Robot Interaction [10.389325878657697]
ロボット決定の説明は、ユーザーの知覚に影響を与え、信頼性を正当化し、信頼を高める。
ロボットが人間の知覚に与える影響は、まだ十分に研究されていない。
本研究は、人間とロボットの相互作用を説明する必要性と可能性を示す。
論文 参考訳(メタデータ) (2022-04-09T15:54:27Z) - Reasoning about Counterfactuals to Improve Human Inverse Reinforcement
Learning [5.072077366588174]
人間は自然に、観察可能な行動について推論することで、他のエージェントの信念や欲求を推測する。
我々は,ロボットの意思決定に対する学習者の現在の理解を,人間のIRLモデルに組み込むことを提案する。
また,人間が見えない環境下でのロボットの動作を予測しにくいことを推定するための新しい尺度を提案する。
論文 参考訳(メタデータ) (2022-03-03T17:06:37Z) - I Need Your Advice... Human Perceptions of Robot Moral Advising
Behaviors [2.0743129221959284]
ロボットは道徳的助言のシナリオでどのようにコミュニケーションをとるべきかを探る。
我々の結果は、人間もロボットも、個人の生活に共通の利益をもたらすアドバイスを提供するときに、より肯定的に判断されることを示唆している。
これらの結果は、ロボットに対する人々の道徳的反応と自律的道徳的エージェントの設計に関する批判的な新しい疑問を提起する。
論文 参考訳(メタデータ) (2021-04-14T16:45:02Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - Robot self/other distinction: active inference meets neural networks
learning in a mirror [9.398766540452632]
ロボットがミラー上で非出現自認を行うことを可能にするアルゴリズムを提案する。
このアルゴリズムは、脳内の知覚と行動の理論モデルであるアクティブ推論とニューラルネットワーク学習を組み合わせる。
ヒューマノイドロボットの実験結果から,初期条件の異なるアルゴリズムの信頼性が示された。
論文 参考訳(メタデータ) (2020-04-11T19:51:47Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。