論文の概要: "Alexa doesn't have that many feelings": Children's understanding of AI
through interactions with smart speakers in their homes
- arxiv url: http://arxiv.org/abs/2305.05597v1
- Date: Tue, 9 May 2023 16:39:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 19:13:01.963974
- Title: "Alexa doesn't have that many feelings": Children's understanding of AI
through interactions with smart speakers in their homes
- Title(参考訳): Alexaにはそれほど多くの感情がない」:子どもの家庭におけるスマートスピーカーとのインタラクションによるAI理解
- Authors: Valentina Andries and Judy Robertson
- Abstract要約: 子どもたちのAI支援技術に対する理解は、教育的な意味を持っている。
発見は、AIリテラシーの必要性に対処するために、教育者が適切な素材を開発することを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As voice-based Conversational Assistants (CAs), including Alexa, Siri, Google
Home, have become commonly embedded in households, many children now routinely
interact with Artificial Intelligence (AI) systems. It is important to research
children's experiences with consumer devices which use AI techniques because
these shape their understanding of AI and its capabilities. We conducted a
mixed-methods study (questionnaires and interviews) with primary-school
children aged 6-11 in Scotland to establish children's understanding of how
voice-based CAs work, how they perceive their cognitive abilities, agency and
other human-like qualities, their awareness and trust of privacy aspects when
using CAs and what they perceive as appropriate verbal interactions with CAs.
Most children overestimated the CAs' intelligence and were uncertain about the
systems' feelings or agency. They also lacked accurate understanding of data
privacy and security aspects, and believed it was wrong to be rude to
conversational assistants. Exploring children's current understanding of
AI-supported technology has educational implications; such findings will enable
educators to develop appropriate materials to address the pressing need for AI
literacy.
- Abstract(参考訳): Alexa、Siri、Google Homeなど、音声ベースの会話アシスタント(CA)が家庭に一般的に組み込まれているため、今では多くの子供たちが人工知能(AI)システムと日常的に対話している。
これらがAIとその能力に対する理解を形作るため、AI技術を使用する消費者デバイスで子どもたちの経験を研究することが重要である。
スコットランドの6歳から11歳の小学生を対象に,音声によるCAの動作の理解,認知能力,エージェンシー,その他の人間的品質,CAの使用時のプライバシー面の認識と信頼,およびCAとの適切な言語的相互作用として知覚するものの理解の確立を目的として,調査・インタビューを行った。
ほとんどの子供たちはCAの知性を過大評価し、システムの感情や機関について不確かだった。
彼らはまた、データのプライバシーとセキュリティに関する正確な理解も欠如しており、会話アシスタントにとって失礼な行為だと信じていた。
このような発見は、教育者がAIリテラシーの必要性に対処するために適切な教材を開発することを可能にする。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Human-Centric eXplainable AI in Education [0.0]
本稿では,教育現場における人間中心型eXplainable AI(HCXAI)について検討する。
学習成果の向上、ユーザ間の信頼の向上、AI駆動ツールの透明性確保における役割を強調している。
ユーザ理解とエンゲージメントを優先するHCXAIシステムの開発のための包括的なフレームワークを概説する。
論文 参考訳(メタデータ) (2024-10-18T14:02:47Z) - Distributed agency in second language learning and teaching through generative AI [0.0]
ChatGPTは、テキストまたは音声形式のチャットを通じて非公式な第二言語プラクティスを提供することができる。
インストラクタはAIを使って、さまざまなメディアで学習と評価材料を構築することができる。
論文 参考訳(メタデータ) (2024-03-29T14:55:40Z) - Generative AI in Education: A Study of Educators' Awareness, Sentiments, and Influencing Factors [2.217351976766501]
本研究は,AI言語モデルに対する教員の経験と態度について考察する。
学習スタイルと生成AIに対する態度の相関は見つからない。
CS教育者は、生成するAIツールの技術的理解にはるかに自信を持っているが、AI生成された仕事を検出する能力にこれ以上自信がない。
論文 参考訳(メタデータ) (2024-03-22T19:21:29Z) - Trust and ethical considerations in a multi-modal, explainable AI-driven chatbot tutoring system: The case of collaboratively solving Rubik's Cube [13.560874044962429]
高校のAI教育における著名な倫理的問題は、データのプライバシー、情報漏洩、虐待的言語、公平性である。
本稿では,マルチモーダル・コラボレーティブ・プラットフォームにおける倫理的かつ信頼性の高い懸念に対処するために構築された技術コンポーネントについて述べる。
データプライバシでは、子どもや親、教師のインフォームドコンセントが、管理されるデータの中心にあることを確実にしたいと思っています。
論文 参考訳(メタデータ) (2024-01-30T16:33:21Z) - Exploring Parent's Needs for Children-Centered AI to Support Preschoolers' Interactive Storytelling and Reading Activities [52.828843153565984]
AIベースのストーリーテリングと読書技術は、幼児の生活の中でますます普及しつつある。
本稿では,実践的なストーリーテリングや読書のシナリオでどのように機能するか,親,最も重要な利害関係者,経験,知覚について考察する。
我々の研究結果は、AIベースのストーリーテリングと読書技術は、より没入的で活発な相互作用を提供するが、一連の対話的でアルゴリズム的な課題のために、両親の期待を満たすことはできないことを示唆している。
論文 参考訳(メタデータ) (2024-01-24T20:55:40Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。