論文の概要: New contexts, old heuristics: How young people in India and the US trust online content in the age of generative AI
- arxiv url: http://arxiv.org/abs/2405.02522v2
- Date: Tue, 08 Oct 2024 00:35:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:30:11.748117
- Title: New contexts, old heuristics: How young people in India and the US trust online content in the age of generative AI
- Title(参考訳): 新しい文脈、古いヒューリスティックス:インドとアメリカの若者が生成AI時代のオンラインコンテンツをいかに信頼するか
- Authors: Rachel Xu, Nhu Le, Rebekah Park, Laura Murray, Vishnupriya Das, Devika Kumar, Beth Goldberg,
- Abstract要約: 生成型AI(genAI)が主流になるのと同じように、若者(18~24歳)がオンラインコンテンツをいかに信頼しているかを検討した。
参加者は「感情均衡」を維持するためのモード間で反射的に移動した
ユーザの異なる情報モードに適合するように設計されたリテラシー介入が最も効果的であると結論付けている。
- 参考スコア(独自算出の注目度): 0.5235143203977018
- License:
- Abstract: We conducted in-person ethnography in India and the US to investigate how young people (18-24) trusted online content, just as generative AI (genAI) became mainstream. We found that when online, how participants determined what content to trust was shaped by emotional states, which we term "information modes." Our participants reflexively shifted between modes to maintain "emotional equilibrium," and eschewed engaging literacy skills in the more passive modes in which they spent the most time. We found participants imported trust heuristics from established online contexts into emerging ones (i.e., genAI). This led them to use ill-fitting trust heuristics, and exposed them to the risk of trusting false and misleading information. While many had reservations about AI, prioritizing efficiency, they used genAI and habitual heuristics to quickly achieve goals at the expense of accuracy. We conclude that literacy interventions designed to match users' distinct information modes will be most effective.
- Abstract(参考訳): インドとアメリカでは、ジェネレーティブAI(genAI)が主流になるのと同じように、若者(18~24歳)がオンラインコンテンツをいかに信頼しているかを調査した。
オンラインでは、参加者が信頼すべきコンテンツが感情状態によって形成されているかを判断する方法が、情報モード(information modes)と呼ばれることがわかった。
参加者は「感情均衡」を維持するためのモード間で反射的に移動し、最も多くの時間を過ごす受動的モードにおいて、有能なリテラシースキルを駆使した。
参加者は、確立したオンラインコンテキストから新興(genAI)へ信頼ヒューリスティックを輸入した。
この結果、彼らは不適合な信頼のヒューリスティックを使用し、偽りや誤解を招く情報を信頼するリスクにさらされた。
多くの人がAIを予約し、効率を優先していたが、彼らはGenAIと習慣的ヒューリスティックを使って精度を犠牲にして素早く目標を達成した。
ユーザの異なる情報モードに適合するように設計されたリテラシー介入が最も効果的であると結論付けている。
関連論文リスト
- Generative artificial intelligence in dentistry: Current approaches and future challenges [0.0]
生成AI(GenAI)モデルは、複雑なモデルと対話する自然言語インターフェースを提供することによって、AIのユーザビリティギャップを橋渡しする。
歯科教育では、GenAIモデルのみを推進し、多くの疑問を解決できる機会を得た。
GenAIは、新しい薬物発見から学術論文の補助まで、歯科医学研究にも利用することができる。
論文 参考訳(メタデータ) (2024-07-24T03:33:47Z) - The Great AI Witch Hunt: Reviewers Perception and (Mis)Conception of Generative AI in Research Writing [25.73744132026804]
研究執筆におけるジェネレーティブAI(GenAI)の利用は急速に増加している。
ピアレビュアーがAIによる増補された写本をどう認識するか、それとも誤認しているかは明らかでない。
我々の研究結果は、AIによって強化された文章は可読性、言語多様性、情報性を改善するが、しばしば研究の詳細や著者からの反射的な洞察を欠いていることを示唆している。
論文 参考訳(メタデータ) (2024-06-27T02:38:25Z) - The Influencer Next Door: How Misinformation Creators Use GenAI [1.1650821883155187]
我々は、非専門家がGenAIをリミックス、再パッケージ、そして(再)コンテンツの制作に利用し、彼らの個人的ニーズや欲求に応えていることに気付きました。
我々は、これらの突発的GenAIの使用が、新しいまたは加速された誤情報障害をいかに生み出すかを分析する。
論文 参考訳(メタデータ) (2024-05-22T11:40:22Z) - Not a Swiss Army Knife: Academics' Perceptions of Trade-Offs Around Generative Artificial Intelligence Use [7.917580802104543]
我々は、教員や学生を含む18人の知識労働者にインタビューを行い、生成AI(Gen AI)の社会的・技術的側面について調査した。
参加者は、Gen AIのトレーニングに使用されるデータの不透明さに関する懸念を提起しました。
参加者は、学習プロセスを加速し、アクセス可能な研究アシスタントとして機能することで、Gen AIが知識を民主化する可能性を認識した。
論文 参考訳(メタデータ) (2024-05-02T04:25:35Z) - Generative AI and Teachers -- For Us or Against Us? A Case Study [0.22499166814992438]
大学教員によるジェネレーション人工知能(GenAI)の導入に関する調査
その結果,67名中35名(半数以上)がGenAIを使用していることがわかった。
59%は教育に影響を与えていると回答しているが、55%はGenAIの使用に関する法律があるべきだと回答している。
論文 参考訳(メタデータ) (2024-04-04T14:40:07Z) - Exploring Parent's Needs for Children-Centered AI to Support
Preschoolers' Storytelling and Reading Activities [54.8155184348616]
人工知能の新たな進歩により、AIベースのストーリーテリング技術が急増した。
本稿では,実践的なストーリーテリングシナリオにおけるそれらの機能と,最も重要な利害関係者である両親が,それらをどう理解し,知覚するかを検討する。
我々の知見は、AIベースのストーリーテリング技術は、より没入的で活発な相互作用を提供するが、親の期待に応えられないことを示唆している。
論文 参考訳(メタデータ) (2024-01-24T20:55:40Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Why is AI not a Panacea for Data Workers? An Interview Study on Human-AI
Collaboration in Data Storytelling [59.08591308749448]
業界と学界の18人のデータワーカーにインタビューして、AIとのコラボレーションの場所と方法を聞いた。
驚いたことに、参加者はAIとのコラボレーションに興奮を見せたが、彼らの多くは反感を表明し、曖昧な理由を指摘した。
論文 参考訳(メタデータ) (2023-04-17T15:30:05Z) - GenNI: Human-AI Collaboration for Data-Backed Text Generation [102.08127062293111]
Table2Textシステムは、機械学習を利用した構造化データに基づいてテキスト出力を生成する。
GenNI (Generation Negotiation Interface) は、対話型ビジュアルシステムである。
論文 参考訳(メタデータ) (2021-10-19T18:07:07Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。