論文の概要: New contexts, old heuristics: How young people in India and the US trust online content in the age of generative AI
- arxiv url: http://arxiv.org/abs/2405.02522v2
- Date: Tue, 08 Oct 2024 00:35:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:30:11.748117
- Title: New contexts, old heuristics: How young people in India and the US trust online content in the age of generative AI
- Title(参考訳): 新しい文脈、古いヒューリスティックス:インドとアメリカの若者が生成AI時代のオンラインコンテンツをいかに信頼するか
- Authors: Rachel Xu, Nhu Le, Rebekah Park, Laura Murray, Vishnupriya Das, Devika Kumar, Beth Goldberg,
- Abstract要約: 生成型AI(genAI)が主流になるのと同じように、若者(18~24歳)がオンラインコンテンツをいかに信頼しているかを検討した。
参加者は「感情均衡」を維持するためのモード間で反射的に移動した
ユーザの異なる情報モードに適合するように設計されたリテラシー介入が最も効果的であると結論付けている。
- 参考スコア(独自算出の注目度): 0.5235143203977018
- License:
- Abstract: We conducted in-person ethnography in India and the US to investigate how young people (18-24) trusted online content, just as generative AI (genAI) became mainstream. We found that when online, how participants determined what content to trust was shaped by emotional states, which we term "information modes." Our participants reflexively shifted between modes to maintain "emotional equilibrium," and eschewed engaging literacy skills in the more passive modes in which they spent the most time. We found participants imported trust heuristics from established online contexts into emerging ones (i.e., genAI). This led them to use ill-fitting trust heuristics, and exposed them to the risk of trusting false and misleading information. While many had reservations about AI, prioritizing efficiency, they used genAI and habitual heuristics to quickly achieve goals at the expense of accuracy. We conclude that literacy interventions designed to match users' distinct information modes will be most effective.
- Abstract(参考訳): インドとアメリカでは、ジェネレーティブAI(genAI)が主流になるのと同じように、若者(18~24歳)がオンラインコンテンツをいかに信頼しているかを調査した。
オンラインでは、参加者が信頼すべきコンテンツが感情状態によって形成されているかを判断する方法が、情報モード(information modes)と呼ばれることがわかった。
参加者は「感情均衡」を維持するためのモード間で反射的に移動し、最も多くの時間を過ごす受動的モードにおいて、有能なリテラシースキルを駆使した。
参加者は、確立したオンラインコンテキストから新興(genAI)へ信頼ヒューリスティックを輸入した。
この結果、彼らは不適合な信頼のヒューリスティックを使用し、偽りや誤解を招く情報を信頼するリスクにさらされた。
多くの人がAIを予約し、効率を優先していたが、彼らはGenAIと習慣的ヒューリスティックを使って精度を犠牲にして素早く目標を達成した。
ユーザの異なる情報モードに適合するように設計されたリテラシー介入が最も効果的であると結論付けている。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Disclosure of AI-Generated News Increases Engagement but Does Not Reduce Aversion, Despite Positive Quality Ratings [3.036383058306671]
本研究では,AI支援記事とAI生成記事と人為的ニュース記事の認識品質について検討する。
スイスのドイツ語話者599名を対象に調査を行った。
その結果、ジャーナリストやAIが書いたかに関わらず、全てのニュース記事が同等の質であると認識されていたことが示唆された。
論文 参考訳(メタデータ) (2024-09-05T13:12:16Z) - Generation Z's Ability to Discriminate Between AI-generated and
Human-Authored Text on Discord [0.32885740436059047]
DiscordはAI統合を可能にし、主にAI生成コンテンツに"ジェネレーションZ"ユーザベースをさらけ出す。
我々は,AI生成テキストと人間によるテキストの識別能力を評価するため,世代Zの高齢者を対象に調査を行った。
ジェネレーションZの個人は、AIと人間によるテキストを区別できない。
論文 参考訳(メタデータ) (2023-12-31T11:52:15Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Who Said That? Benchmarking Social Media AI Detection [12.862865254507177]
本稿では、実ソーシャルメディアプラットフォームにおけるAIテキスト検出モデルの能力を評価するために開発された新しいベンチマークであるSAID(Social media AI Detection)を紹介する。
ZhihuやQuoraといった人気のソーシャルメディアプラットフォームから、AI生成テキストが組み込まれている。
Zhihuデータセットに基づく我々の研究の注目すべき発見は、アノテータがAI生成テキストと人間生成テキストを96.5%の平均精度で区別できることを示している。
論文 参考訳(メタデータ) (2023-10-12T11:35:24Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - Challenges and Trends in User Trust Discourse in AI [1.8369974607582584]
発見は、ユーザの信頼と、そのコンピュータ科学への影響を理解するための明確さの欠如を示している。
AIの採用と評価における信頼のギャップや誤解を避けるために、これらの概念を明確にする、と氏は主張する。
論文 参考訳(メタデータ) (2023-05-05T07:02:57Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。