論文の概要: Towards a Participatory and Social Justice-Oriented Measure of
Human-Robot Trust
- arxiv url: http://arxiv.org/abs/2402.15671v1
- Date: Sat, 24 Feb 2024 01:04:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 17:30:20.419419
- Title: Towards a Participatory and Social Justice-Oriented Measure of
Human-Robot Trust
- Title(参考訳): 人間-ロボット信頼の参加と社会正義志向の尺度に向けて
- Authors: Raj Korpan
- Abstract要約: 本稿では,信頼度尺度の設計と評価のための参加的かつ社会的正義志向のアプローチを提案する。
このプロセスは、ロボットに対する信頼に影響を与える要因を正確に反映した信頼尺度を作成するために、コミュニティのニーズとユニークな状況が優先される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Many measures of human-robot trust have proliferated across the HRI research
literature because each attempts to capture the factors that impact trust
despite its many dimensions. None of the previous trust measures, however,
address the systems of inequity and structures of power present in HRI research
or attempt to counteract the systematic biases and potential harms caused by
HRI systems. This position paper proposes a participatory and social
justice-oriented approach for the design and evaluation of a trust measure.
This proposed process would iteratively co-design the trust measure with the
community for whom the HRI system is being created. The process would
prioritize that community's needs and unique circumstances to produce a trust
measure that accurately reflects the factors that impact their trust in a
robot.
- Abstract(参考訳): ヒト-ロボット信頼の多くの尺度は、その多くの次元にもかかわらず信頼に影響を与える要因を捉えようと試みているため、HRIの研究文献全体で増大してきた。
しかし、これまでの信頼度尺度では、HRI研究における不平等と権力の構造の体系や、HRIシステムによる系統的バイアスや潜在的危害に対処する試みには対応していない。
本稿では,信頼度尺度の設計と評価のための参加的かつ社会的正義志向のアプローチを提案する。
このプロセスは、HRIシステムが作成されているコミュニティとの信頼度を反復的に設計する。
このプロセスは、ロボットに対する信頼に影響を与える要因を正確に反映した信頼尺度を作成するために、コミュニティのニーズとユニークな状況が優先される。
関連論文リスト
- A Vision to Enhance Trust Requirements for Peer Support Systems by Revisiting Trust Theories [3.4971302832462476]
このビジョンペーパーは、医療従事者(HCW)に影響を及ぼすメンタルヘルス危機に焦点を当てている。
本研究は,認知信頼理論に固定された信頼枠組みを提案することによって,知覚信頼要件を導き出す新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-06-06T02:21:11Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Rethinking Trust Repair in Human-Robot Interaction [1.52292571922932]
人間とロボットのインタラクションにおける信頼回復の研究が最近始まったが、信頼侵害が発生した後も、ロボットの信頼回復のための信頼性の高いアプローチを特定することについて重要な疑問が残る。
私の研究は、人間-ロボット相互作用(HRI)の修復を信頼できるロボットを設計するための効果的な戦略を見つけることを目的としている。
本稿では,HRIにおける信頼修復プロセスの基本的な概念と鍵となる構成要素について概説するとともに,この領域における私の現在の著作の概要について述べる。
論文 参考訳(メタデータ) (2023-07-14T13:48:37Z) - Trustworthy Social Bias Measurement [92.87080873893618]
本研究では,測定モデリングの学際的理論に基づいて,信頼を保証できるバイアス尺度を設計する。
我々は5つの具体的なバイアス測定をインスタンス化するために、一般的なバイアス測定フレームワークであるDivDistを提案して、その定義を運用する。
我々は,従来の尺度に存在した概念的,技術的,実証的欠陥を克服し,我々の措置を信頼するかなりの証拠を実証する。
論文 参考訳(メタデータ) (2022-12-20T18:45:12Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust as Extended Control: Active Inference and User Feedback During
Human-Robot Collaboration [2.6381163133447836]
その重要な役割にもかかわらず、信頼がどのように出現し、発展し、人間以外の人工物との人間の相互作用をサポートするかはほとんど不明です。
拡張モータープラントやパートナーとの信頼性の高い感覚交換のためのエージェントの最良の説明として信頼のモデルを紹介する。
信頼の成因における共有行動の役割について,特にダイアドコラボレーションの文脈で検討する。
論文 参考訳(メタデータ) (2021-04-22T16:11:22Z) - Modeling Trust in Human-Robot Interaction: A Survey [1.4502611532302039]
ロボット協力者の適切な信頼は、人間とロボットの相互作用のパフォーマンスに影響を与える主要な要因の1つである。
HRIの信頼性校正には、まず信頼をモデル化する必要がある。
論文 参考訳(メタデータ) (2020-11-09T21:56:34Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。