論文の概要: New contexts, old heuristics: How young people in India and the US trust online content in the age of generative AI
- arxiv url: http://arxiv.org/abs/2405.02522v1
- Date: Fri, 3 May 2024 23:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 19:40:24.006811
- Title: New contexts, old heuristics: How young people in India and the US trust online content in the age of generative AI
- Title(参考訳): 新しい文脈、古いヒューリスティックス:インドとアメリカの若者が生成AI時代のオンラインコンテンツをいかに信頼するか
- Authors: Rachel Xu, Nhu Le, Rebekah Park, Laura Murray, Vishnupriya Das, Devika Kumar, Beth Goldberg,
- Abstract要約: 若者(18~24歳)がオンラインコンテンツをいかに信頼しているかを調査するため,インドと米国で個人エスノグラフィーを行った。
若者が生成AI(GenAI)をどのように利用するかについて4つの重要な知見を得た。
調査の結果,若者はインターネット上での時間の大半を真実を気にせずに過ごしていることが示唆された。
- 参考スコア(独自算出の注目度): 0.5235143203977018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We conducted an in-person ethnography in India and the US to investigate how young people (18-24) trusted online content, with a focus on generative AI (GenAI). We had four key findings about how young people use GenAI and determine what to trust online. First, when online, we found participants fluidly shifted between mindsets and emotional states, which we term "information modes." Second, these information modes shaped how and why participants trust GenAI and how they applied literacy skills. In the modes where they spent most of their time, they eschewed literacy skills. Third, with the advent of GenAI, participants imported existing trust heuristics from familiar online contexts into their interactions with GenAI. Fourth, although study participants had reservations about GenAI, they saw it as a requisite tool to adopt to keep up with the times. Participants valued efficiency above all else, and used GenAI to further their goals quickly at the expense of accuracy. Our findings suggest that young people spend the majority of their time online not concerned with truth because they are seeking only to pass the time. As a result, literacy interventions should be designed to intervene at the right time, to match users' distinct information modes, and to work with their existing fact-checking practices.
- Abstract(参考訳): インドとアメリカ合衆国で、若者(18~24歳)がオンラインコンテンツをどのように信頼しているかを調査し、生成型AI(GenAI)に着目した。
若者がGenAIをどのように利用し、オンラインで何を信頼するかを判断する上で、重要な4つの発見がありました。
まず、オンラインの場合、参加者はマインドセットと感情状態の間に流動的に移行し、それを“情報モード”と呼びました。
第2に、これらの情報モードは、どのように、なぜ参加者がGenAIを信頼するか、リテラシーのスキルを適用したのかを形作った。
時間の大半を過ごしたモードでは、リテラシーのスキルを駆使した。
第3に、GenAIの出現に伴い、参加者は、慣れ親しんだオンラインコンテキストから既存の信頼ヒューリスティックをGenAIとのインタラクションにインポートした。
第4に、研究参加者はGenAIを予約していたが、時代に合わせて採用するために必要なツールだと考えた。
参加者は他のすべてよりも効率を高く評価し、精度を犠牲にして目標を迅速に進めるためにGenAIを使用した。
調査の結果,若者はインターネット上での時間の大半を真実を気にせずに過ごしていることが示唆された。
結果として、リテラシー介入は、適切なタイミングで介入し、ユーザの異なる情報モードにマッチし、既存のファクトチェックのプラクティスに対処するように設計されるべきである。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Disclosure of AI-Generated News Increases Engagement but Does Not Reduce Aversion, Despite Positive Quality Ratings [3.036383058306671]
ジャーナリズムにおけるAIの統合は、民主主義の機会とリスクの両方を提示している。
本研究では,AI支援記事とAI生成記事と人為的ニュース記事の認識品質について検討する。
論文 参考訳(メタデータ) (2024-09-05T13:12:16Z) - Generation Z's Ability to Discriminate Between AI-generated and
Human-Authored Text on Discord [0.32885740436059047]
DiscordはAI統合を可能にし、主にAI生成コンテンツに"ジェネレーションZ"ユーザベースをさらけ出す。
我々は,AI生成テキストと人間によるテキストの識別能力を評価するため,世代Zの高齢者を対象に調査を行った。
ジェネレーションZの個人は、AIと人間によるテキストを区別できない。
論文 参考訳(メタデータ) (2023-12-31T11:52:15Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Who Said That? Benchmarking Social Media AI Detection [12.862865254507177]
本稿では、実ソーシャルメディアプラットフォームにおけるAIテキスト検出モデルの能力を評価するために開発された新しいベンチマークであるSAID(Social media AI Detection)を紹介する。
ZhihuやQuoraといった人気のソーシャルメディアプラットフォームから、AI生成テキストが組み込まれている。
Zhihuデータセットに基づく我々の研究の注目すべき発見は、アノテータがAI生成テキストと人間生成テキストを96.5%の平均精度で区別できることを示している。
論文 参考訳(メタデータ) (2023-10-12T11:35:24Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - Challenges and Trends in User Trust Discourse in AI [1.8369974607582584]
発見は、ユーザの信頼と、そのコンピュータ科学への影響を理解するための明確さの欠如を示している。
AIの採用と評価における信頼のギャップや誤解を避けるために、これらの概念を明確にする、と氏は主張する。
論文 参考訳(メタデータ) (2023-05-05T07:02:57Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。