論文の概要: Human and AI Trust: Trust Attitude Measurement Instrument
- arxiv url: http://arxiv.org/abs/2510.21535v1
- Date: Fri, 24 Oct 2025 15:01:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.513125
- Title: Human and AI Trust: Trust Attitude Measurement Instrument
- Title(参考訳): 人間とAIの信頼:信頼度測定器
- Authors: Retno Larasati,
- Abstract要約: 本稿では,信頼度測定器の開発と検証について述べる。
この装置は、AIシステムに対する信頼姿勢を測定するために、人間とAIのインタラクションを研究するために明確に作られた。
私たちがこのスケールを開発するために用いたユースケースは、AI医療支援システムの文脈にあった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the current progress of Artificial Intelligence (AI) technology and its increasingly broader applications, trust is seen as a required criterion for AI usage, acceptance, and deployment. A robust measurement instrument is essential to correctly evaluate trust from a human-centered perspective. This paper describes the development and validation process of a trust measure instrument, which follows psychometric principles, and consists of a 16-items trust scale. The instrument was built explicitly for research in human-AI interaction to measure trust attitudes towards AI systems from layperson (non-expert) perspective. The use-case we used to develop the scale was in the context of AI medical support systems (specifically cancer/health prediction). The scale development (Measurement Item Development) and validation (Measurement Item Evaluation) involved six research stages: item development, item evaluation, survey administration, test of dimensionality, test of reliability, and test of validity. The results of the six-stages evaluation show that the proposed trust measurement instrument is empirically reliable and valid for systematically measuring and comparing non-experts' trust in AI Medical Support Systems.
- Abstract(参考訳): 人工知能(AI)技術の現在の進歩と、そのより広範な応用により、信頼はAIの使用、受け入れ、デプロイメントに必要な基準と見なされる。
人間中心の視点から信頼を正しく評価するためには、ロバストな測定器が不可欠である。
本稿では,16項目の信頼尺度からなる信頼度測定器の開発と検証プロセスについて述べる。
この装置は、人間とAIの相互作用を研究するために、人間(専門家以外の)視点からAIシステムに対する信頼姿勢を測定するために、明示的に構築された。
私たちがこのスケールを開発するために用いたユースケースは、AI医療支援システム(特に癌/健康予測)の文脈にあった。
尺度開発(測定項目開発)と検証(測定項目評価)には,項目開発,項目評価,調査管理,寸法試験,信頼性試験,妥当性試験の6つの研究段階があった。
6段階評価の結果,提案した信頼度測定器は,AI医療支援システムにおける非専門家の信頼度を定量的に測定し,比較するために有効であることがわかった。
関連論文リスト
- Revisiting Trust in the Era of Generative AI: Factorial Structure and Latent Profiles [5.109743403025609]
信頼は、人々が人工知能(AI)を採用し、どのように依存するかを形作る最も重要な要素の1つです。
既存の研究の多くは、システムの信頼性、正確性、使いやすさに重点を置いて、機能の観点から信頼度を測定している。
本研究では,GenAIにおける信頼の合理性と関係性の両方を捉えるための新しい尺度であるHuman-AI Trust Scale(HAITS)を導入し,検証する。
論文 参考訳(メタデータ) (2025-10-11T12:39:53Z) - Dynamic Trust Calibration Using Contextual Bandits [1.8563342761346613]
過剰な信頼は、AIが生成したアウトプットを疑わしいことなく受け入れることを可能にする。
不十分な信頼は、AIシステムから価値のある洞察を無視してしまう可能性がある。
現在、人間とAIの信頼度を測る決定的かつ客観的な方法は存在しない。
論文 参考訳(メタデータ) (2025-09-27T21:06:17Z) - Is Trust Correlated With Explainability in AI? A Meta-Analysis [0.0]
我々は、AI説明可能性と信頼の関係を探るため、既存の文献を網羅的に調査する。
我々の分析では、90の研究データを取り入れた結果、AIシステムの説明可能性と彼らが与える信頼との間に統計的に有意だが適度な正の相関関係が明らかとなった。
この研究は、特に説明責任の促進と、医療や司法などの重要な領域におけるユーザの信頼の促進において、社会技術的に幅広い影響を強調している。
論文 参考訳(メタデータ) (2025-04-16T23:30:55Z) - Evaluating Generative AI Systems is a Social Science Measurement Challenge [78.35388859345056]
我々は,GenAIシステムの能力,影響,機会,リスクに関連する概念を測定するための枠組みを提案する。
このフレームワークは、背景概念、体系化された概念、測定器、インスタンスレベルの測定そのものの4つのレベルを区別する。
論文 参考訳(メタデータ) (2024-11-17T02:35:30Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Converging Measures and an Emergent Model: A Meta-Analysis of
Human-Automation Trust Questionnaires [0.6853165736531939]
我々は、最も頻繁に引用され、最も有効な人間自動および人間ロボット信頼のアンケートを同定する。
本研究では,人間自動信頼の収束モデルを示す。
論文 参考訳(メタデータ) (2023-03-24T04:42:49Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI and Its Role in the Acceptance of AI Technologies [12.175031903660972]
本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
論文 参考訳(メタデータ) (2022-03-23T19:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。