論文の概要: Trust in Human-AI Interaction: Scoping Out Models, Measures, and Methods
- arxiv url: http://arxiv.org/abs/2205.00189v1
- Date: Sat, 30 Apr 2022 07:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:02:56.184461
- Title: Trust in Human-AI Interaction: Scoping Out Models, Measures, and Methods
- Title(参考訳): 人間とAIのインタラクションにおける信頼--モデル、尺度、方法の抽出
- Authors: Takane Ueno, Yuto Sawa, Yeongdae Kim, Jacqueline Urakami, Hiroki Oura,
Katie Seaborn
- Abstract要約: AIに注入されたシステムとのインタラクションにおいて、信頼が重要な要因として浮上している。
どんな信頼モデルが使われているのか、どんなシステムに使われているのかは、ほとんど分かっていない。
AIの信頼を測定するための標準的なアプローチはまだ知られていない。
- 参考スコア(独自算出の注目度): 12.641141743223377
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Trust has emerged as a key factor in people's interactions with AI-infused
systems. Yet, little is known about what models of trust have been used and for
what systems: robots, virtual characters, smart vehicles, decision aids, or
others. Moreover, there is yet no known standard approach to measuring trust in
AI. This scoping review maps out the state of affairs on trust in human-AI
interaction (HAII) from the perspectives of models, measures, and methods.
Findings suggest that trust is an important and multi-faceted topic of study
within HAII contexts. However, most work is under-theorized and under-reported,
generally not using established trust models and missing details about methods,
especially Wizard of Oz. We offer several targets for systematic review work as
well as a research agenda for combining the strengths and addressing the
weaknesses of the current literature.
- Abstract(参考訳): AIに注入されたシステムとのインタラクションにおいて、信頼が重要な要因として浮上している。
しかし、信頼のモデルや、ロボット、バーチャルキャラクタ、スマート車、意思決定支援など、どのようなシステムで使われているのかについては、ほとんど分かっていない。
さらに、AIの信頼を測定するための標準的なアプローチはまだ知られていない。
このスコーピングレビューは、モデル、測度、方法の観点から、人間とAIの相互作用(HAII)に対する信頼の状況を示す。
信頼はHAIIの文脈における重要かつ多面的な研究のトピックであることを示している。
しかし、ほとんどの作品は理論上は未発表であり、一般的に確立された信頼モデルやメソッド、特にozのウィザードの詳細は使用されていない。
我々は,体系的レビュー作業のための目標と,その強みを結合し,現在の文献の弱さに対処するための研究課題を提案する。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - A Review of the Role of Causality in Developing Trustworthy AI Systems [16.267806768096026]
最先端のAIモデルは、現実世界の人間の理解を支配する因果関係の理解がほとんどない。
近年,AIモデルの信頼性を向上するための強力なツールとして因果モデリングや推論手法が登場している。
論文 参考訳(メタデータ) (2023-02-14T11:08:26Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Improving Model Understanding and Trust with Counterfactual Explanations
of Model Confidence [4.385390451313721]
人間とエージェントのインタラクションシステムにおける信頼度を示すことは、人間とAIシステムの信頼を構築するのに役立つ。
既存の研究の多くは、信頼度スコアをコミュニケーションの形式としてのみ用いた。
本稿では, モデル信頼度を理解するための2つの手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T04:04:28Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - LaMDA: Language Models for Dialog Applications [75.75051929981933]
LaMDAは、ダイアログに特化したトランスフォーマーベースのニューラルネットワークモデルのファミリーである。
注釈付きデータで微調整し、モデルが外部の知識ソースを参照できるようにすると、大幅な改善がもたらされる。
論文 参考訳(メタデータ) (2022-01-20T15:44:37Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - Statistical Perspectives on Reliability of Artificial Intelligence
Systems [6.284088451820049]
AIシステムの信頼性に関する統計的視点を提供する。
本稿では,AI信頼性研究のためのSMART統計フレームワークを提案する。
我々は、AI信頼性のモデリングと分析における最近の発展について論じる。
論文 参考訳(メタデータ) (2021-11-09T20:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。