論文の概要: Evaluating if trust and personal information privacy concerns are
barriers to using health insurance that explicitly utilizes AI
- arxiv url: http://arxiv.org/abs/2401.11249v1
- Date: Sat, 20 Jan 2024 15:02:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 17:18:57.166009
- Title: Evaluating if trust and personal information privacy concerns are
barriers to using health insurance that explicitly utilizes AI
- Title(参考訳): 信頼と個人情報のプライバシーに関する懸念が、AIを明示的に活用する健康保険の障壁であるかどうかを評価する
- Authors: Alex Zarifis, Peter Kawalek and Aida Azadegan
- Abstract要約: 本研究は、信頼とプライバシに関する懸念が、医療保険におけるAI導入の障壁であるかどうかを考察する。
調査の結果、AIが見える第2のシナリオでは、信頼が著しく低いことが判明した。
プライバシに関する懸念はAIでは高いが、モデル内では統計的に重要な違いはない。
- 参考スコア(独自算出の注目度): 0.6138671548064355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trust and privacy have emerged as significant concerns in online
transactions. Sharing information on health is especially sensitive but it is
necessary for purchasing and utilizing health insurance. Evidence shows that
consumers are increasingly comfortable with technology in place of humans, but
the expanding use of AI potentially changes this. This research explores
whether trust and privacy concern are barriers to the adoption of AI in health
insurance. Two scenarios are compared: The first scenario has limited AI that
is not in the interface and its presence is not explicitly revealed to the
consumer. In the second scenario there is an AI interface and AI evaluation,
and this is explicitly revealed to the consumer. The two scenarios were modeled
and compared using SEM PLS-MGA. The findings show that trust is significantly
lower in the second scenario where AI is visible. Privacy concerns are higher
with AI but the difference is not statistically significant within the model.
- Abstract(参考訳): 信頼とプライバシーはオンライン取引における重要な懸念として浮上している。
健康に関する情報の共有は特に敏感であるが、健康保険の購入と利用には必要である。
証拠によると、消費者は人間の代わりにテクノロジーに慣れているようだが、aiの利用が拡大すれば、この状況が変わる可能性がある。
本研究は、信頼とプライバシに関する懸念が、医療保険におけるAI導入の障壁であるかどうかを考察する。
最初のシナリオは、インターフェースにないAIに制限があり、その存在を消費者に明示的に公開していません。
第2のシナリオでは、AIインターフェースとAI評価があり、これは明確に消費者に開示される。
2つのシナリオをSEM PLS-MGAを用いてモデル化し比較した。
その結果、AIが見える第2のシナリオでは、信頼が著しく低いことが判明した。
プライバシに関する懸念はAIでは高いが、モデル内では統計的に重要な違いはない。
関連論文リスト
- Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - Ethical AI in Retail: Consumer Privacy and Fairness [0.0]
小売業における人工知能(AI)の採用は、業界を大きく変革させ、よりパーソナライズされたサービスと効率的な運用を可能にした。
しかし、AI技術の急速な実装は、特に消費者プライバシと公正性に関する倫理的懸念を提起する。
本研究の目的は、小売業におけるAIアプリケーションの倫理的課題を分析し、競争力を維持しながらAI技術を倫理的に実装する方法を探究し、倫理的AIプラクティスに関する推奨を提供することである。
論文 参考訳(メタデータ) (2024-10-20T12:00:14Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Advances in Automatically Rating the Trustworthiness of Text Processing
Services [9.696492590163016]
AIサービスは、データやモデル、あるいはユーザの変化を受けると、不安定な振る舞いを持つことが知られている。
消費者がAIのソースコードやトレーニングデータにアクセスできないブラックボックス設定でAIサービスを評価する現在のアプローチは限られている。
我々のアプローチは、食品産業における健康促進のための栄養ラベル付けの成功に触発され、独立した利害関係者の視点からAIサービスを信頼のために評価し、評価することを目指している。
論文 参考訳(メタデータ) (2023-02-04T14:27:46Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。