論文の概要: "Alexa doesn't have that many feelings": Children's understanding of AI
through interactions with smart speakers in their homes
- arxiv url: http://arxiv.org/abs/2305.05597v1
- Date: Tue, 9 May 2023 16:39:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 19:13:01.963974
- Title: "Alexa doesn't have that many feelings": Children's understanding of AI
through interactions with smart speakers in their homes
- Title(参考訳): Alexaにはそれほど多くの感情がない」:子どもの家庭におけるスマートスピーカーとのインタラクションによるAI理解
- Authors: Valentina Andries and Judy Robertson
- Abstract要約: 子どもたちのAI支援技術に対する理解は、教育的な意味を持っている。
発見は、AIリテラシーの必要性に対処するために、教育者が適切な素材を開発することを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As voice-based Conversational Assistants (CAs), including Alexa, Siri, Google
Home, have become commonly embedded in households, many children now routinely
interact with Artificial Intelligence (AI) systems. It is important to research
children's experiences with consumer devices which use AI techniques because
these shape their understanding of AI and its capabilities. We conducted a
mixed-methods study (questionnaires and interviews) with primary-school
children aged 6-11 in Scotland to establish children's understanding of how
voice-based CAs work, how they perceive their cognitive abilities, agency and
other human-like qualities, their awareness and trust of privacy aspects when
using CAs and what they perceive as appropriate verbal interactions with CAs.
Most children overestimated the CAs' intelligence and were uncertain about the
systems' feelings or agency. They also lacked accurate understanding of data
privacy and security aspects, and believed it was wrong to be rude to
conversational assistants. Exploring children's current understanding of
AI-supported technology has educational implications; such findings will enable
educators to develop appropriate materials to address the pressing need for AI
literacy.
- Abstract(参考訳): Alexa、Siri、Google Homeなど、音声ベースの会話アシスタント(CA)が家庭に一般的に組み込まれているため、今では多くの子供たちが人工知能(AI)システムと日常的に対話している。
これらがAIとその能力に対する理解を形作るため、AI技術を使用する消費者デバイスで子どもたちの経験を研究することが重要である。
スコットランドの6歳から11歳の小学生を対象に,音声によるCAの動作の理解,認知能力,エージェンシー,その他の人間的品質,CAの使用時のプライバシー面の認識と信頼,およびCAとの適切な言語的相互作用として知覚するものの理解の確立を目的として,調査・インタビューを行った。
ほとんどの子供たちはCAの知性を過大評価し、システムの感情や機関について不確かだった。
彼らはまた、データのプライバシーとセキュリティに関する正確な理解も欠如しており、会話アシスタントにとって失礼な行為だと信じていた。
このような発見は、教育者がAIリテラシーの必要性に対処するために適切な教材を開発することを可能にする。
関連論文リスト
- Trust and ethical considerations in a multi-modal, explainable AI-driven
chatbot tutoring system: The case of collaboratively solving Rubik's Cube [14.012087492118015]
高校のAI教育における著名な倫理的問題は、データのプライバシー、情報漏洩、虐待的言語、公平性である。
本稿では,マルチモーダル・コラボレーティブ・プラットフォームにおける倫理的かつ信頼性の高い懸念に対処するために構築された技術コンポーネントについて述べる。
データプライバシでは、子どもや親、教師のインフォームドコンセントが、管理されるデータの中心にあることを確実にしたいと思っています。
論文 参考訳(メタデータ) (2024-01-30T16:33:21Z) - Exploring Parent's Needs for Children-Centered AI to Support
Preschoolers' Storytelling and Reading Activities [54.8155184348616]
人工知能の新たな進歩により、AIベースのストーリーテリング技術が急増した。
本稿では,実践的なストーリーテリングシナリオにおけるそれらの機能と,最も重要な利害関係者である両親が,それらをどう理解し,知覚するかを検討する。
我々の知見は、AIベースのストーリーテリング技術は、より没入的で活発な相互作用を提供するが、親の期待に応えられないことを示唆している。
論文 参考訳(メタデータ) (2024-01-24T20:55:40Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - Critical Appraisal of Artificial Intelligence-Mediated Communication [0.0]
この本は、言語教育におけるAIによるコミュニケーションの長所と短所について考察する。
言語教師がCALLの教師教育と専門的開発に従事して、進化を続けるテクノロジーの展望に追随し、その教育効果を向上させることが不可欠である、と論じている。
論文 参考訳(メタデータ) (2023-05-15T02:35:40Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Human-like Communicative Intelligence: A Grounded Perspective [1.0152838128195465]
言語学習における驚くべき進歩の後、AIシステムは人間のコミュニケーション能力の重要な側面を反映しない天井に近づいたようだ。
本稿は、ナチビストと象徴的パラダイムに基づく認知にインスパイアされたAIの方向性には、現代AIの進歩を導くために必要なサブストラテジと具体性がないことを示唆する。
本稿では,「地下」言語知能構築のための具体的かつ実装可能なコンポーネントのリストを提案する。
論文 参考訳(メタデータ) (2022-01-02T01:43:24Z) - Interactive Storytelling for Children: A Case-study of Design and
Development Considerations for Ethical Conversational AI [0.20999222360659603]
会話人工知能(CAI)システムと知能パーソナルアシスタント(IPA)は、私たちの生活の中でユビキタスになりつつある。
本稿では,技術開発の特定の事例における社会的文脈を考察し,文献内からの議論によって裏付け,支持された。
CAIを通じたストーリーテリングの倫理に開発者やステークホルダーと関わるさらなる研究は、緊急性の問題として強調される。
論文 参考訳(メタデータ) (2021-07-20T15:11:45Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。