論文の概要: Human Trust in AI Search: A Large-Scale Experiment
- arxiv url: http://arxiv.org/abs/2504.06435v1
- Date: Tue, 08 Apr 2025 21:12:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:06:51.871756
- Title: Human Trust in AI Search: A Large-Scale Experiment
- Title(参考訳): AI検索における人間信頼 - 大規模な実験
- Authors: Haiwen Li, Sinan Aral,
- Abstract要約: 生成的人工知能(GenAI)は、購入するもの、投票方法、健康に影響を及ぼす。
生成的検索デザインが人間の信頼に因果的影響を及ぼす研究はない。
我々は7カ国で12,000の検索クエリを実行し、80,000のリアルタイムGenAIと従来の検索結果を生成した。
- 参考スコア(独自算出の注目度): 0.07589017023705934
- License:
- Abstract: Large Language Models (LLMs) increasingly power generative search engines which, in turn, drive human information seeking and decision making at scale. The extent to which humans trust generative artificial intelligence (GenAI) can therefore influence what we buy, how we vote and our health. Unfortunately, no work establishes the causal effect of generative search designs on human trust. Here we execute ~12,000 search queries across seven countries, generating ~80,000 real-time GenAI and traditional search results, to understand the extent of current global exposure to GenAI search. We then use a preregistered, randomized experiment on a large study sample representative of the U.S. population to show that while participants trust GenAI search less than traditional search on average, reference links and citations significantly increase trust in GenAI, even when those links and citations are incorrect or hallucinated. Uncertainty highlighting, which reveals GenAI's confidence in its own conclusions, makes us less willing to trust and share generative information whether that confidence is high or low. Positive social feedback increases trust in GenAI while negative feedback reduces trust. These results imply that GenAI designs can increase trust in inaccurate and hallucinated information and reduce trust when GenAI's certainty is made explicit. Trust in GenAI varies by topic and with users' demographics, education, industry employment and GenAI experience, revealing which sub-populations are most vulnerable to GenAI misrepresentations. Trust, in turn, predicts behavior, as those who trust GenAI more click more and spend less time evaluating GenAI search results. These findings suggest directions for GenAI design to safely and productively address the AI "trust gap."
- Abstract(参考訳): 大規模言語モデル (LLM) は、人的情報探索と意思決定を大規模に推進する生成検索エンジンをますます力づけている。
したがって、人間が生成的人工知能(GenAI)を信頼する程度は、購入するもの、投票方法、健康に影響を及ぼす。
残念なことに、生成的検索デザインが人間の信頼に因果関係を立証する研究は行われていない。
ここでは7カ国で約12,000の検索クエリを実行し、80,000のリアルタイムGenAIと従来の検索結果を生成し、現在のグローバルなGenAI検索の規模を理解する。
次に、米国人口の代表者を対象に、事前登録されたランダム化実験を行い、参加者がGenAI検索を平均よりも信頼しているが、参照リンクと引用は、そのリンクと引用が間違っても幻覚しても、GenAIに対する信頼を著しく増大させることを示した。
非確実性強調は、GenAI自身の結論に対する自信を明らかにするもので、信頼度が高いか低いかに関わらず、生成情報を信頼し共有する意思を低下させる。
ポジティブな社会的フィードバックはGenAIへの信頼を高め、ネガティブなフィードバックは信頼を減少させる。
これらの結果から、GenAI設計は不正確で幻覚的な情報に対する信頼を高め、GenAIの確証が明確化されると信頼を低下させる可能性が示唆された。
GenAIへの信頼は、ユーザーの人口統計、教育、産業雇用、そしてGenAI体験によって様々であり、どのサブ人口がGenAIの誤表現に最も弱いかを明らかにする。
GenAIを信頼している人はよりクリックしやすく、GenAIの検索結果を評価する時間が少なくなるため、信頼は行動を予測する。
これらの知見は、GenAI設計がAIを安全かつ生産的に「トラストギャップ」に対処するための方向性を示唆している。
関連論文リスト
- Human Misperception of Generative-AI Alignment: A Laboratory Experiment [0.393259574660092]
我々は、経済的な意思決定の文脈において、生成的人工知能(GenAI)のアライメントに対する人々の認識を研究する。
我々は,GenAIの選択と人間の選択の一致度を過大評価している。
論文 参考訳(メタデータ) (2025-02-20T16:32:42Z) - Understanding the Practices, Perceptions, and (Dis)Trust of Generative AI among Instructors: A Mixed-methods Study in the U.S. Higher Education [18.929643075615637]
我々は1つの米国大学から178人のインストラクターを対象に、高等教育におけるGenAIの現在の実践、認識、信頼、不信について調査した。
我々の量的結果は、GenAIにおける信頼と不信は相互に関係しているが、高い信頼は必ずしも不信を低く含んでおらず、その逆も同様であることを示している。
質的な結果から、調査対象のインストラクターの信頼と不信のニュアンスな顕在化と、GenAIの校正的信頼を支える様々なアプローチが示された。
論文 参考訳(メタデータ) (2025-02-09T04:10:38Z) - "So what if I used GenAI?" -- Implications of Using Cloud-based GenAI in Software Engineering Research [0.0]
本論文は、GenAIが用いられている様々な研究の側面に光を当て、その法的な意味を初心者や芽生えの研究者に認識させるものである。
我々は、GenAIを使用するすべてのソフトウェア研究者が、責任の主張を暴露する重大なミスを避けるために意識すべきであるという現在の知識について、重要な側面を要約する。
論文 参考訳(メタデータ) (2024-12-10T06:18:15Z) - Hey GPT, Can You be More Racist? Analysis from Crowdsourced Attempts to Elicit Biased Content from Generative AI [41.96102438774773]
本研究は,GenAIツールから偏りのあるアウトプットを抽出するプロンプトの設計に参加者が挑戦する大学レベルのコンペから得られた知見を提示する。
我々は、競争の提出を定量的に質的に分析し、GenAIにおける多様なバイアスと、GenAIにおけるバイアスを誘発する参加者の戦略を同定する。
論文 参考訳(メタデータ) (2024-10-20T18:44:45Z) - The Influencer Next Door: How Misinformation Creators Use GenAI [1.1650821883155187]
我々は、非専門家がGenAIをリミックス、再パッケージ、そして(再)コンテンツの制作に利用し、彼らの個人的ニーズや欲求に応えていることに気付きました。
我々は、これらの突発的GenAIの使用が、新しいまたは加速された誤情報障害をいかに生み出すかを分析する。
論文 参考訳(メタデータ) (2024-05-22T11:40:22Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - GenAI Against Humanity: Nefarious Applications of Generative Artificial
Intelligence and Large Language Models [11.323961700172175]
本稿は、GenAIのリスクとLLMの誤用に関する厳密な研究の合成として機能する。
我々は、私たちが目にしているGenAI革命に波及した社会的影響を明らかにする。
仮想世界と現実世界の境界線はぼやけており、GenAIの悪名高いアプリケーションの結果が私たち全員に影響を与えています。
論文 参考訳(メタデータ) (2023-10-01T17:25:56Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。