論文の概要: Children's Mental Models of Generative Visual and Text Based AI Models
- arxiv url: http://arxiv.org/abs/2405.13081v1
- Date: Tue, 21 May 2024 06:18:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 04:22:11.869247
- Title: Children's Mental Models of Generative Visual and Text Based AI Models
- Title(参考訳): 生成的視覚とテキストに基づくAIモデルの子どものメンタルモデル
- Authors: Eliza Kosoy, Soojin Jeong, Anoop Sinha, Alison Gopnik, Tanya Kraljic,
- Abstract要約: 5-12歳の子どもたちは、テキストベースのLLMs ChatGPTやビジュアルベースのDALL-Eのような生成AIモデルを知覚し、理解し、使用します。
子どもたちは一般的に、AIに対して非常に肯定的な見通しを持ち、AIが日々の生活に利益をもたらし、支援する方法に興奮しています。
これらの発見が、子どものメンタルなAIモデルに光を当て、必然的にAIを生かしている子供たちに最適なツールを設計するための洞察を与えてくれることを期待しています。
- 参考スコア(独自算出の注目度): 0.027961972519572442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we investigate how children ages 5-12 perceive, understand, and use generative AI models such as a text-based LLMs ChatGPT and a visual-based model DALL-E. Generative AI is newly being used widely since chatGPT. Children are also building mental models of generative AI. Those haven't been studied before and it is also the case that the children's models are dynamic as they use the tools, even with just very short usage. Upon surveying and experimentally observing over 40 children ages 5-12, we found that children generally have a very positive outlook towards AI and are excited about the ways AI may benefit and aid them in their everyday lives. In a forced choice, children robustly associated AI with positive adjectives versus negative ones. We also categorize what children are querying AI models for and find that children search for more imaginative things that don't exist when using a visual-based AI and not when using a text-based one. Our follow-up study monitored children's responses and feelings towards AI before and after interacting with GenAI models. We even find that children find AI to be less scary after interacting with it. We hope that these findings will shine a light on children's mental models of AI and provide insight for how to design the best possible tools for children who will inevitably be using AI in their lifetimes. The motivation of this work is to bridge the gap between Human-Computer Interaction (HCI) and Psychology in an effort to study the effects of AI on society. We aim to identify the gaps in humans' mental models of what AI is and how it works. Previous work has investigated how both adults and children perceive various kinds of robots, computers, and other technological concepts. However, there is very little work investigating these concepts for generative AI models and not simply embodied robots or physical technology.
- Abstract(参考訳): 本研究では,5-12歳児がテキストベースのLLMs ChatGPTや視覚ベースのDALL-Eなどの生成AIモデルをどのように認識し,理解し,利用しているかを検討する。
ジェネレーティブAIは、チャットGPT以来、広く使われている。
子どもたちは、生成AIのメンタルモデルも作っている。
これらはこれまで研究されておらず、また、非常に短い使用量であっても、子供のモデルがツールを使用するときに動的である場合もあります。
5歳から12歳までの40人以上の子どもを調査、実験的に観察した結果、子どもたちは一般的にAIに対して非常に肯定的な見通しを持ち、AIが日々の生活に利益をもたらし、支援する方法に興奮していることがわかった。
強制的な選択では、子どもたちは正の形容詞と負の形容詞を強く結び付ける。
私たちはまた、子供たちがAIモデルに問い合わせているものを分類し、子供たちがテキストベースのAIを使用するときではなく、視覚ベースのAIを使用するときに存在しない、想像力のないものを探すことを見つけました。
追跡調査では,GenAIモデルとの対話前後の子どものAIに対する反応と感情を観察した。
子どもたちは、AIと対話した後で、AIが怖くないことに気付きます。
これらの発見が、子どものメンタルなAIモデルに光を当て、必然的にAIを生かしている子供たちに最適なツールを設計するための洞察を与えてくれることを期待しています。
この研究の動機は、ヒューマン・コンピュータ・インタラクション(HCI)と心理学のギャップを埋め、AIが社会に与える影響を研究することである。
私たちは、AIとは何か、どのように機能するのかという人間の精神モデルにおけるギャップを特定することを目的としています。
これまでの研究は、大人と子供の両方が、さまざまな種類のロボット、コンピュータ、その他の技術概念をどう捉えているかを調査してきた。
しかし、これらの概念を、単にロボットや物理技術を具現化するのではなく、生成的AIモデルのために調査する研究はほとんどない。
関連論文リスト
- Need of AI in Modern Education: in the Eyes of Explainable AI (xAI) [0.0]
この章は、AIの操作方法、特にバイアスに関する複雑な方法を明かそうとしている。
これらは、より信頼性があり、説明責任があり、すべての関係者にとって有益な方法でAIを使用することを含む、より良い教育政策に向けた基本的なステップである。
論文 参考訳(メタデータ) (2024-07-31T08:11:33Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - A Bibliometric View of AI Ethics Development [4.0998481751764]
我々は過去20年間,キーワード検索に基づくAI倫理文献の文献分析を行った。
AI倫理の次のフェーズは、AIが人間とマッチしたり、知的に超越したりするにつれて、AIをより機械的に近いものにすることに集中する可能性が高いと推測する。
論文 参考訳(メタデータ) (2024-02-08T16:36:55Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Challenges of Artificial Intelligence -- From Machine Learning and
Computer Vision to Emotional Intelligence [0.0]
AIは人間の支配者ではなく、支援者である、と私たちは信じています。
コンピュータビジョンはAIの開発の中心となっている。
感情は人間の知性の中心であるが、AIではほとんど使われていない。
論文 参考訳(メタデータ) (2022-01-05T06:00:22Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。