論文の概要: Trust in Human-AI Interaction: Scoping Out Models, Measures, and Methods
- arxiv url: http://arxiv.org/abs/2205.00189v1
- Date: Sat, 30 Apr 2022 07:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:02:56.184461
- Title: Trust in Human-AI Interaction: Scoping Out Models, Measures, and Methods
- Title(参考訳): 人間とAIのインタラクションにおける信頼--モデル、尺度、方法の抽出
- Authors: Takane Ueno, Yuto Sawa, Yeongdae Kim, Jacqueline Urakami, Hiroki Oura,
Katie Seaborn
- Abstract要約: AIに注入されたシステムとのインタラクションにおいて、信頼が重要な要因として浮上している。
どんな信頼モデルが使われているのか、どんなシステムに使われているのかは、ほとんど分かっていない。
AIの信頼を測定するための標準的なアプローチはまだ知られていない。
- 参考スコア(独自算出の注目度): 12.641141743223377
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Trust has emerged as a key factor in people's interactions with AI-infused
systems. Yet, little is known about what models of trust have been used and for
what systems: robots, virtual characters, smart vehicles, decision aids, or
others. Moreover, there is yet no known standard approach to measuring trust in
AI. This scoping review maps out the state of affairs on trust in human-AI
interaction (HAII) from the perspectives of models, measures, and methods.
Findings suggest that trust is an important and multi-faceted topic of study
within HAII contexts. However, most work is under-theorized and under-reported,
generally not using established trust models and missing details about methods,
especially Wizard of Oz. We offer several targets for systematic review work as
well as a research agenda for combining the strengths and addressing the
weaknesses of the current literature.
- Abstract(参考訳): AIに注入されたシステムとのインタラクションにおいて、信頼が重要な要因として浮上している。
しかし、信頼のモデルや、ロボット、バーチャルキャラクタ、スマート車、意思決定支援など、どのようなシステムで使われているのかについては、ほとんど分かっていない。
さらに、AIの信頼を測定するための標準的なアプローチはまだ知られていない。
このスコーピングレビューは、モデル、測度、方法の観点から、人間とAIの相互作用(HAII)に対する信頼の状況を示す。
信頼はHAIIの文脈における重要かつ多面的な研究のトピックであることを示している。
しかし、ほとんどの作品は理論上は未発表であり、一般的に確立された信頼モデルやメソッド、特にozのウィザードの詳細は使用されていない。
我々は,体系的レビュー作業のための目標と,その強みを結合し,現在の文献の弱さに対処するための研究課題を提案する。
関連論文リスト
- Quantifying Divergence for Human-AI Collaboration and Cognitive Trust [1.804922416527064]
本稿では,分散度に基づく意思決定類似度尺度を提案する。
我々は,テキスト・エンタテインメント・タスクについてユーザ・リサーチを行う。
ユーザは、最も類似したモデルと類似点や差が示され、コラボレーションの可能性について調査される。
論文 参考訳(メタデータ) (2023-12-14T08:08:19Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - A Review of the Role of Causality in Developing Trustworthy AI Systems [16.267806768096026]
最先端のAIモデルは、現実世界の人間の理解を支配する因果関係の理解がほとんどない。
近年,AIモデルの信頼性を向上するための強力なツールとして因果モデリングや推論手法が登場している。
論文 参考訳(メタデータ) (2023-02-14T11:08:26Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Improving Model Understanding and Trust with Counterfactual Explanations
of Model Confidence [4.385390451313721]
人間とエージェントのインタラクションシステムにおける信頼度を示すことは、人間とAIシステムの信頼を構築するのに役立つ。
既存の研究の多くは、信頼度スコアをコミュニケーションの形式としてのみ用いた。
本稿では, モデル信頼度を理解するための2つの手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T04:04:28Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI and Its Role in the Acceptance of AI Technologies [12.175031903660972]
本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
論文 参考訳(メタデータ) (2022-03-23T19:18:19Z) - LaMDA: Language Models for Dialog Applications [75.75051929981933]
LaMDAは、ダイアログに特化したトランスフォーマーベースのニューラルネットワークモデルのファミリーである。
注釈付きデータで微調整し、モデルが外部の知識ソースを参照できるようにすると、大幅な改善がもたらされる。
論文 参考訳(メタデータ) (2022-01-20T15:44:37Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - Statistical Perspectives on Reliability of Artificial Intelligence
Systems [6.284088451820049]
AIシステムの信頼性に関する統計的視点を提供する。
本稿では,AI信頼性研究のためのSMART統計フレームワークを提案する。
我々は、AI信頼性のモデリングと分析における最近の発展について論じる。
論文 参考訳(メタデータ) (2021-11-09T20:00:14Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。