論文の概要: How to build trust in answers given by Generative AI for specific, and vague, financial questions
- arxiv url: http://arxiv.org/abs/2408.14593v1
- Date: Mon, 26 Aug 2024 19:26:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 17:40:47.403069
- Title: How to build trust in answers given by Generative AI for specific, and vague, financial questions
- Title(参考訳): 具体的であいまいな財務問題に対するジェネレーティブAIによる回答の信頼構築方法
- Authors: Alex Zarifis, Xusen Cheng,
- Abstract要約: 消費者の信頼を築くことは、あいまいなものと比べて、特定の財政的な質問をするときに異なる。
両シナリオの信頼を構築するための4つの方法は,(2)人間の監視とループの理解,(3)透明性とコントロール,(4)正確性と有用性,(5)使いやすさとサポートの容易さである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Generative artificial intelligence (GenAI) has progressed in its ability and has seen explosive growth in adoption. However, the consumer's perspective on its use, particularly in specific scenarios such as financial advice, is unclear. This research develops a model of how to build trust in the advice given by GenAI when answering financial questions. Design/methodology/approach: The model is tested with survey data using structural equation modelling (SEM) and multi-group analysis (MGA). The MGA compares two scenarios, one where the consumer makes a specific question and one where a vague question is made. Findings: This research identifies that building trust for consumers is different when they ask a specific financial question in comparison to a vague one. Humanness has a different effect in the two scenarios. When a financial question is specific, human-like interaction does not strengthen trust, while (1) when a question is vague, humanness builds trust. The four ways to build trust in both scenarios are (2) human oversight and being in the loop, (3) transparency and control, (4) accuracy and usefulness and finally (5) ease of use and support. Originality/value: This research contributes to a better understanding of the consumer's perspective when using GenAI for financial questions and highlights the importance of understanding GenAI in specific contexts from specific stakeholders.
- Abstract(参考訳): 目的: 生成人工知能(GenAI)はその能力が進歩し、採用が爆発的に増加した。
しかし、消費者の、特に金融アドバイスのような特定のシナリオにおける利用に対する視点は不明確である。
本研究は、経済的な疑問に答える際に、GenAIのアドバイスを信頼する方法のモデルを開発する。
設計・方法論・アプローチ: 構造方程式モデリング(SEM)と多群解析(MGA)を用いて調査データを用いて実験する。
MGAは、コンシューマが特定の質問を行うシナリオと、あいまいな質問を行うシナリオの2つを比較します。
Findings: この研究は、消費者に対する信頼の構築が、あいまいな質問と比べて、特定の金銭的質問をするときに異なることを特定します。
人間性は2つのシナリオで異なる効果を持つ。
金銭的な質問が具体的であれば、人間のようなインタラクションは信頼を強化しないが、(1)質問が曖昧な場合、人間性は信頼を構築する。
両方のシナリオで信頼を構築するための4つの方法は、(2)人間の監視とループ内の状態、(3)透明性とコントロール、(4)正確性と有用性、そして(5)使いやすさとサポートである。
原点/価値: この研究は、金融問題にGenAIを使用する際の消費者の視点をよりよく理解することに貢献し、特定の利害関係者からの特定の文脈におけるGenAIを理解することの重要性を強調します。
関連論文リスト
- Evaluating if trust and personal information privacy concerns are
barriers to using health insurance that explicitly utilizes AI [0.6138671548064355]
本研究は、信頼とプライバシに関する懸念が、医療保険におけるAI導入の障壁であるかどうかを考察する。
調査の結果、AIが見える第2のシナリオでは、信頼が著しく低いことが判明した。
プライバシに関する懸念はAIでは高いが、モデル内では統計的に重要な違いはない。
論文 参考訳(メタデータ) (2024-01-20T15:02:56Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Decoding trust: A reinforcement learning perspective [11.04265850036115]
信頼ゲームにおける行動実験は、信頼と信頼は人間の間で普遍的であることを示した。
個人が蓄積した経験を通じて長期的なリターンを評価することで戦略を更新する強化学習のパラダイムに目を向ける。
両者のシナリオでは、個人が過去の経験と未来への回帰の両方を理解すれば、高いレベルの信頼と信頼感が生まれます。
論文 参考訳(メタデータ) (2023-09-26T01:06:29Z) - GenAIPABench: A Benchmark for Generative AI-based Privacy Assistants [1.2642388972233845]
本稿では、ジェネレーティブAIベースのプライバシアシスタント(GenAIPA)の評価ベンチマークであるGenAIPABenchを紹介する。
GenAIPABench には,1) プライバシポリシやデータ保護規則に関する一連の質問,2) さまざまな組織や規制に対する注釈付き回答,2) 応答の正確性,関連性,一貫性を評価するメトリクス,3) プライバシドキュメントの導入や,システムの堅牢性をテストするためのさまざまなプライバシ質問などを生成するためのプロンプトを生成するツールなどが含まれている。
我々は、GenAIPABenchを用いて、ChatGPT-4、Bard、Bing AIの3つの主要なGenAIシステムを評価し、その効果をGenAIPAとして評価した。
論文 参考訳(メタデータ) (2023-09-10T21:15:42Z) - Trust in AI and Its Role in the Acceptance of AI Technologies [12.175031903660972]
本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
論文 参考訳(メタデータ) (2022-03-23T19:18:19Z) - Trust in AI: Interpretability is not necessary or sufficient, while
black-box interaction is necessary and sufficient [0.0]
人工知能に対する人間の信頼の問題は、応用機械学習における最も基本的な問題の1つである。
我々は、AI-as-toolフレームワークを動機付けるために、人間自動信頼に関する統計的学習理論と社会学的レンズから抽出する。
モデルアクセスのはしごによる信頼における解釈可能性の役割を明らかにする。
論文 参考訳(メタデータ) (2022-02-10T19:59:23Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Knowledge-driven Data Construction for Zero-shot Evaluation in
Commonsense Question Answering [80.60605604261416]
本稿では,共通認識課題にまたがるゼロショット質問応答のための新しいニューラルシンボリック・フレームワークを提案する。
言語モデル、トレーニング体制、知識ソース、データ生成戦略のセットを変えて、タスク間の影響を測定します。
個別の知識グラフは特定のタスクに適しているが、グローバルな知識グラフはさまざまなタスクに対して一貫した利得をもたらす。
論文 参考訳(メタデータ) (2020-11-07T22:52:21Z) - Insights into Fairness through Trust: Multi-scale Trust Quantification
for Financial Deep Learning [94.65749466106664]
金融深層学習において探求されていない公平性の基本的な側面は、信頼の概念である。
クレジットカードのデフォルト予測のために,ディープニューラルネットワーク上でマルチスケール信頼度定量化を行う。
論文 参考訳(メタデータ) (2020-11-03T19:05:07Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。