論文の概要: AI summaries in online search influence users' attitudes
- arxiv url: http://arxiv.org/abs/2511.22809v1
- Date: Thu, 27 Nov 2025 23:45:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.730466
- Title: AI summaries in online search influence users' attitudes
- Title(参考訳): オンライン検索におけるAI要約はユーザの態度に影響を与える
- Authors: Yiwei Xu, Saloni Dash, Sungha Kang, Wang Liao, Emma S. Spiro,
- Abstract要約: 本研究では,AIが生成した要約が,ユーザが異なる問題に対する考え方にどのように影響するかを検討した。
ユーザーは、AIサマリーが健康被害と福利厚生に重点を置いていると認識した。
これらの結果は、AIが生成した検索サマリーが公共の認識を著しく形作ることを示唆している。
- 参考スコア(独自算出の注目度): 3.459756369056329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study examined how AI-generated summaries, which have become visually prominent in online search results, affect how users think about different issues. In a preregistered randomized controlled experiment, participants (N = 2,004) viewed mock search result pages varying in the presence (vs. absence), placement (top vs. middle), and stance (benefit-framed vs. harm-framed) of AI-generated summaries across four publicly debated topics. Compared to a no-summary control group, participants exposed to AI-generated summaries reported issue attitudes, behavioral intentions, and policy support that aligned more closely with the AI summary stance. The summaries placed at the top of the page produced stronger shifts in users' issue attitudes (but not behavioral intentions or policy support) than those placed at the middle of the page. We also observed moderating effects from issue familiarity and general trust toward AI. In addition, users perceived the AI summaries more useful when it emphasized health harms versus benefits. These findings suggest that AI-generated search summaries can significantly shape public perceptions, raising important implications for the design and regulation of AI-integrated information ecosystems.
- Abstract(参考訳): 本研究では、オンライン検索結果で視覚的に顕著になったAI生成サマリーが、ユーザーが異なる問題についてどう考えるかにどのように影響するかを検討した。
事前登録されたランダム化制御実験では、参加者(N = 2,004)は、公に議論された4つのトピックにまたがるAI生成サマリーの、存在(vs.不在)、配置(top vs. middle)、スタンス(benefit-framed vs. harm-framed)によって異なるモック検索結果ページを見た。
一般のコントロールグループと比較して、AI生成サマリーに暴露された参加者は、AIサマリーのスタンスとより緊密に一致した態度、行動意図、政策支援を報告した。
ページの上部にある要約は、ページの中央にあるものよりも、ユーザの問題態度(ただし行動意図やポリシーサポートではない)がより強く変化した。
また,問題に親しみやすいことや,AIに対する一般的な信頼感の緩和効果も観察した。
さらに、ユーザーは、AIサマリーが健康上の害と利益を強調していると認識した。
これらの結果は、AIが生成した検索サマリーが、公衆の認識を著しく形成し、AI統合情報エコシステムの設計と規制に重要な意味を持ちうることを示唆している。
関連論文リスト
- AI Feedback Enhances Community-Based Content Moderation through Engagement with Counterarguments [0.0]
本研究は,AIを用いたハイブリット・モデレーション・フレームワークについて検討した。
その結果,フィードバックを取り入れることで音質が向上することがわかった。
この研究は、政治コンテンツモデレーションにおけるAIの役割に関する継続的な議論に寄与している。
論文 参考訳(メタデータ) (2025-07-10T18:52:50Z) - Artificial Intelligence in Deliberation: The AI Penalty and the Emergence of a New Deliberative Divide [0.0]
デジタル審議は民主的参加を拡大したが、課題は残る。
人工知能(AI)の最近の進歩は潜在的な解決策を提供するが、熟考におけるAIの役割に対する大衆の認識はいまだに過小評価されている。
AIが熟考、公的な信頼、受け入れ、参加意欲に統合される場合、影響される可能性がある。
論文 参考訳(メタデータ) (2025-03-10T16:33:15Z) - Users Favor LLM-Generated Content -- Until They Know It's AI [0.0]
本研究では,コンテンツソースが隠蔽されたり開示されたりした場合に,人間のラングモデルと大規模ラングモデルを用いて,一般的な質問に対する応答を個人がどのように評価するかを検討する。
以上の結果から,参加者はAIによる反応を好む傾向が示唆された。
AIの起源が明らかになると、この選好は著しく低下し、評価的判断が応答の発覚の開示に影響されることが示唆される。
論文 参考訳(メタデータ) (2025-02-23T11:14:02Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。