論文の概要: I Need Your Advice... Human Perceptions of Robot Moral Advising
Behaviors
- arxiv url: http://arxiv.org/abs/2104.06963v1
- Date: Wed, 14 Apr 2021 16:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 21:03:12.548200
- Title: I Need Your Advice... Human Perceptions of Robot Moral Advising
Behaviors
- Title(参考訳): あなたのアドバイスが...
ロボットのモラルアドバイス行動の人間知覚
- Authors: Nichole D. Starr and Bertram Malle and Tom Williams
- Abstract要約: ロボットは道徳的助言のシナリオでどのようにコミュニケーションをとるべきかを探る。
我々の結果は、人間もロボットも、個人の生活に共通の利益をもたらすアドバイスを提供するときに、より肯定的に判断されることを示唆している。
これらの結果は、ロボットに対する人々の道徳的反応と自律的道徳的エージェントの設計に関する批判的な新しい疑問を提起する。
- 参考スコア(独自算出の注目度): 2.0743129221959284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to their unique persuasive power, language-capable robots must be able to
both act in line with human moral norms and clearly and appropriately
communicate those norms. These requirements are complicated by the possibility
that humans may ascribe blame differently to humans and robots. In this work,
we explore how robots should communicate in moral advising scenarios, in which
the norms they are expected to follow (in a moral dilemma scenario) may be
different from those their advisees are expected to follow. Our results suggest
that, in fact, both humans and robots are judged more positively when they
provide the advice that favors the common good over an individual's life. These
results raise critical new questions regarding people's moral responses to
robots and the design of autonomous moral agents.
- Abstract(参考訳): その独特の説得力のために、言語対応ロボットは人間の道徳規範に従って行動し、それらの規範を明確かつ適切に伝達しなくてはならない。
これらの要件は、人間が人間やロボットに対する責任を負う可能性によって複雑である。
本研究は、ロボットが道徳的助言シナリオにおいてどのようにコミュニケーションをとるべきかを探求するものであり、そこでは、彼らが従うであろう規範(道徳的ジレンマのシナリオ)が、助言者が従うであろうものと異なる可能性がある。
我々の結果は、人間もロボットも、個人の生活に共通の利益をもたらすアドバイスを提供するときに、よりポジティブに判断されることを示唆している。
これらの結果は、ロボットに対する人々の道徳的反応と自律的道徳的エージェントの設計に関する批判的な新しい疑問を提起する。
関連論文リスト
- SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - The dynamic nature of trust: Trust in Human-Robot Interaction revisited [0.38233569758620045]
社会支援ロボット(SAR)は、現実世界の人間を支援するロボットである。
リスクは信頼の要素をもたらすので、ロボットに対する人間の信頼を理解することは必須である。
論文 参考訳(メタデータ) (2023-03-08T19:20:11Z) - Aligning Robot and Human Representations [50.070982136315784]
ロボット工学における現在の表現学習アプローチは、表現アライメントの目的がいかにうまく達成されているかの観点から研究されるべきである。
問題を数学的に定義し、その鍵となるデシダータを同定し、この形式主義の中に現在の方法を置く。
論文 参考訳(メタデータ) (2023-02-03T18:59:55Z) - Learning Latent Representations to Co-Adapt to Humans [12.71953776723672]
非定常的な人間はロボット学習者に挑戦しています。
本稿では,ロボットが動的人間と協調して適応できるアルゴリズム形式について紹介する。
論文 参考訳(メタデータ) (2022-12-19T16:19:24Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Understanding a Robot's Guiding Ethical Principles via Automatically
Generated Explanations [4.393037165265444]
我々は、ユーザーが計画について提案し、自動的に生成された対照的な説明を受けられるように、既存の倫理的枠組みを構築している。
ユーザスタディの結果は、生成された説明は、ロボットの計画の根底にある倫理的原則を理解するのに役立つことを示唆している。
論文 参考訳(メタデータ) (2022-06-20T22:55:00Z) - Two ways to make your robot proactive: reasoning about human intentions,
or reasoning about possible futures [69.03494351066846]
ロボットをアクティブにする方法を2つ検討する。
1つの方法は人間の意図を認識し、あなたが交差しようとしているドアを開くなど、それらを満たすために行動することである。
もう1つの方法は、将来起こりうる脅威や機会を推論し、それを防ぐか、または育てるために行動することである。
論文 参考訳(メタデータ) (2022-05-11T13:33:14Z) - Doing Right by Not Doing Wrong in Human-Robot Collaboration [8.078753289996417]
本研究では,ポジティブ行動の再現ではなく,ネガティブ行動の回避によって,公平で社会的行動を学ぶための新しいアプローチを提案する。
本研究では,ロボット操作における社会性の導入の重要性と,人間とロボットの相互作用における公平性を検討することの重要性を強調した。
論文 参考訳(メタデータ) (2022-02-05T23:05:10Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z) - When Humans Aren't Optimal: Robots that Collaborate with Risk-Aware
Humans [16.21572727245082]
安全かつ効率的に協力するためには、ロボットは人間のパートナーがどのように振る舞うかを予測する必要がある。
本稿では,累積プロスペクト理論(Cumulative Prospect Theory)と呼ばれる行動経済学から,よく知られたリスク対応人間モデルを採用する。
これにより、モデリング精度が向上し、より安全で効率的な人間とロボットのコラボレーションがもたらされることが判明した。
論文 参考訳(メタデータ) (2020-01-13T16:27:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。