論文の概要: User Intent to Use DeepSeek for Healthcare Purposes and their Trust in the Large Language Model: Multinational Survey Study
- arxiv url: http://arxiv.org/abs/2502.17487v2
- Date: Sun, 02 Mar 2025 06:05:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-04 16:12:33.168241
- Title: User Intent to Use DeepSeek for Healthcare Purposes and their Trust in the Large Language Model: Multinational Survey Study
- Title(参考訳): 大規模言語モデルにおけるDeepSeekの利用感と信頼度に関する多国間調査
- Authors: Avishek Choudhury, Yeganeh Shahsavar, Hamid Shamszare,
- Abstract要約: 大規模言語モデル(LLM)は、インタラクティブな医療資源としてますます役立っているが、ユーザ受け入れは未熟である。
本研究は、DeepSeekを採用するための形状意図と、使いやすさ、知覚的有用性、信頼、リスク知覚がどのように相互作用するかを検討する。
- 参考スコア(独自算出の注目度): 1.474723404975345
- License:
- Abstract: Large language models (LLMs) increasingly serve as interactive healthcare resources, yet user acceptance remains underexplored. This study examines how ease of use, perceived usefulness, trust, and risk perception interact to shape intentions to adopt DeepSeek, an emerging LLM-based platform, for healthcare purposes. A cross-sectional survey of 556 participants from India, the United Kingdom, and the United States was conducted to measure perceptions and usage patterns. Structural equation modeling assessed both direct and indirect effects, including potential quadratic relationships. Results revealed that trust plays a pivotal mediating role: ease of use exerts a significant indirect effect on usage intentions through trust, while perceived usefulness contributes to both trust development and direct adoption. By contrast, risk perception negatively affects usage intent, emphasizing the importance of robust data governance and transparency. Notably, significant non-linear paths were observed for ease of use and risk, indicating threshold or plateau effects. The measurement model demonstrated strong reliability and validity, supported by high composite reliabilities, average variance extracted, and discriminant validity measures. These findings extend technology acceptance and health informatics research by illuminating the multifaceted nature of user adoption in sensitive domains. Stakeholders should invest in trust-building strategies, user-centric design, and risk mitigation measures to encourage sustained and safe uptake of LLMs in healthcare. Future work can employ longitudinal designs or examine culture-specific variables to further clarify how user perceptions evolve over time and across different regulatory environments. Such insights are critical for harnessing AI to enhance outcomes.
- Abstract(参考訳): 大規模言語モデル(LLM)は、インタラクティブな医療資源としてますます役立っているが、ユーザ受け入れは未熟である。
本研究は,LLMベースの新しいプラットフォームであるDeepSeekを医療目的に適用するための,使いやすさ,有用性,信頼,リスク知覚の相互作用について検討した。
インド、イギリス、アメリカ合衆国から556人の参加者を対象にした横断的な調査を行った。
構造方程式モデリングは、潜在的な二次関係を含む直接効果と間接効果の両方を評価した。
その結果、信頼は重要な仲介役を担っていることが明らかとなった。使いやすさは、信頼を通しての使用意図に重大な間接的影響を与える一方、有用性は信頼開発と直接採用の両方に寄与する。
対照的に、リスク認識は使用意図に悪影響を及ぼし、堅牢なデータガバナンスと透明性の重要性を強調します。
特に, 使用の容易さ, リスク, しきい値, プラトー効果を示す重要な非線形経路が観察された。
その結果, 高い複合信頼性, 平均分散抽出, 識別妥当性の指標として, 信頼性と妥当性が示された。
これらの知見は、センシティブドメインにおけるユーザ採用の多面的性質を照らし、テクノロジーの受容と健康情報学の研究を拡張した。
ステークホルダーは、医療におけるLLMの持続的かつ安全な取り込みを促進するために、信頼構築戦略、ユーザー中心の設計、リスク軽減策に投資する必要がある。
今後の作業では、時間とともに、異なる規制環境にわたって、ユーザの認識がどのように進化するかをさらに明確にするために、縦断的な設計を採用するか、文化固有の変数を調べることができる。
このような洞察は、AIを使って成果を高めるために不可欠です。
関連論文リスト
- Scale-up Unlearnable Examples Learning with High-Performance Computing [7.410014640563799]
Unlearnable Examples (UEs) は、ディープラーニングモデルに対してデータを学習不能にすることを目的としている。
Summitスーパーコンピュータ上でDDP(Distributed Data Parallel)トレーニングを用いて,さまざまなデータセットを対象としたUC学習をスケールアップした。
以上の結果から,大きすぎるバッチサイズと小さすぎるバッチサイズの両方が,パフォーマンスの不安定さと精度に影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2025-01-10T16:15:23Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - DePrompt: Desensitization and Evaluation of Personal Identifiable Information in Large Language Model Prompts [11.883785681042593]
DePromptは、プロンプトのための脱感作保護および有効性評価フレームワークである。
我々は、コンテキスト属性を統合し、プライバシタイプを定義し、高精度なPIIエンティティ識別を実現する。
私たちのフレームワークはプロンプトに適応可能で、テキストのユーザビリティに依存したシナリオに拡張できます。
論文 参考訳(メタデータ) (2024-08-16T02:38:25Z) - More RLHF, More Trust? On The Impact of Preference Alignment On Trustworthiness [24.843692458375436]
本研究では,5つの信頼性分野において,汎用的嗜好データに整合したモデルがどのように機能するかを検討する。
ヒトの嗜好に対するRLHFは、自動的に信頼性を保証せず、しばしば逆効果が観察される。
本稿では,RLHF設定に効率的な影響関数に基づくデータ帰属手法を適用し,個々の信頼性ベンチマークに対する微調整データの影響をよりよく理解するために提案する。
論文 参考訳(メタデータ) (2024-04-29T17:00:53Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities [2.9404725327650767]
臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
論文 参考訳(メタデータ) (2023-08-16T14:51:51Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - A Comprehensive Picture of Factors Affecting User Willingness to Use
Mobile Health Applications [62.60524178293434]
本研究の目的は,mHealthアプリのユーザ受け入れに影響を与える要因を検討することである。
利用者のデジタルリテラシーは、個人情報を共有するオンライン習慣に続き、使用意欲に最も強い影響を与える。
居住国、年齢、民族、教育などの利用者の人口統計学的背景は、顕著な緩和効果がある。
論文 参考訳(メタデータ) (2023-05-10T08:11:21Z) - Epidemic mitigation by statistical inference from contact tracing data [61.04165571425021]
我々は,個人が感染するリスクを推定するためにベイズ推定法を開発した。
本稿では,感染防止のための検査・隔離戦略を最適化するために,確率論的リスク推定手法を提案する。
我々のアプローチは、最近接触した個人間の通信のみを必要とする、完全に分散されたアルゴリズムに変換されます。
論文 参考訳(メタデータ) (2020-09-20T12:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。