論文の概要: Examining the Values Reflected by Children during AI Problem Formulation
- arxiv url: http://arxiv.org/abs/2309.15839v1
- Date: Wed, 27 Sep 2023 17:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 12:23:50.675450
- Title: Examining the Values Reflected by Children during AI Problem Formulation
- Title(参考訳): ai問題定式化における子どもの反映値の検討
- Authors: Utkarsh Dwivedi, Salma Elsayed-ali, Elizabeth Bonsignore and Hernisa
Kacorri
- Abstract要約: 子どもが提案するアイデアには,高度なシステムインテリジェンスとユーザの社会的関係を理解することが必要である。
子どもの考えは、意思決定する前に家族や機械が社会的文脈を理解することを気にしていたことを示している。
- 参考スコア(独自算出の注目度): 9.516294164912072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding how children design and what they value in AI interfaces that
allow them to explicitly train their models such as teachable machines, could
help increase such activities' impact and guide the design of future
technologies. In a co-design session using a modified storyboard, a team of 5
children (aged 7-13 years) and adult co-designers, engaged in AI problem
formulation activities where they imagine their own teachable machines. Our
findings, leveraging an established psychological value framework (the Rokeach
Value Survey), illuminate how children conceptualize and embed their values in
AI systems that they themselves devise to support their everyday activities.
Specifically, we find that children's proposed ideas require advanced system
intelligence, e.g. emotion detection and understanding the social relationships
of a user. The underlying models could be trained under multiple modalities and
any errors would be fixed by adding more data or by anticipating negative
examples. Children's ideas showed they cared about family and expected machines
to understand their social context before making decisions.
- Abstract(参考訳): 子どもたちがどのように設計し、AIインターフェースでどのような価値を持つかを理解することで、教育可能なマシンなどのモデルを明示的にトレーニングすることができる。
修正されたストーリーボードを使った共同設計セッションでは、5人の子供(7歳から13歳)と成人の共同設計者からなるチームが、AIの問題解決活動に従事した。
我々の研究は、確立された心理的価値の枠組み(Rokeach Value Survey)を活用して、子どもが日常的な活動を支援するために考案したAIシステムに、どのように価値を概念化し、組み込むかを明らかにした。
具体的には、子どもが提案するアイデアは、例えば感情の検出やユーザの社会的関係の理解など、高度なシステムインテリジェンスを必要とする。
基礎となるモデルは複数のモードでトレーニングすることができ、データの追加やネガティブな例の予測によってエラーを修正できる。
子どもの考えは、意思決定する前に家族や機械が社会的文脈を理解することを気にしていたことを示している。
関連論文リスト
- Children's Mental Models of Generative Visual and Text Based AI Models [0.027961972519572442]
5-12歳の子どもたちは、テキストベースのLLMs ChatGPTやビジュアルベースのDALL-Eのような生成AIモデルを知覚し、理解し、使用します。
子どもたちは一般的に、AIに対して非常に肯定的な見通しを持ち、AIが日々の生活に利益をもたらし、支援する方法に興奮しています。
これらの発見が、子どものメンタルなAIモデルに光を当て、必然的にAIを生かしている子供たちに最適なツールを設計するための洞察を与えてくれることを期待しています。
論文 参考訳(メタデータ) (2024-05-21T06:18:00Z) - Trust and ethical considerations in a multi-modal, explainable AI-driven chatbot tutoring system: The case of collaboratively solving Rubik's Cube [13.560874044962429]
高校のAI教育における著名な倫理的問題は、データのプライバシー、情報漏洩、虐待的言語、公平性である。
本稿では,マルチモーダル・コラボレーティブ・プラットフォームにおける倫理的かつ信頼性の高い懸念に対処するために構築された技術コンポーネントについて述べる。
データプライバシでは、子どもや親、教師のインフォームドコンセントが、管理されるデータの中心にあることを確実にしたいと思っています。
論文 参考訳(メタデータ) (2024-01-30T16:33:21Z) - Exploring Parent's Needs for Children-Centered AI to Support Preschoolers' Interactive Storytelling and Reading Activities [52.828843153565984]
AIベースのストーリーテリングと読書技術は、幼児の生活の中でますます普及しつつある。
本稿では,実践的なストーリーテリングや読書のシナリオでどのように機能するか,親,最も重要な利害関係者,経験,知覚について考察する。
我々の研究結果は、AIベースのストーリーテリングと読書技術は、より没入的で活発な相互作用を提供するが、一連の対話的でアルゴリズム的な課題のために、両親の期待を満たすことはできないことを示唆している。
論文 参考訳(メタデータ) (2024-01-24T20:55:40Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Towards Goldilocks Zone in Child-centered AI [0.0]
我々は、子供のAIとのインタラクションプロセスを理解する必要性を論じる。
児童中心AIにおける価値駆動インタラクションを実現するための設計勧告をいくつか提示する。
論文 参考訳(メタデータ) (2023-03-20T15:52:33Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - From Modelling to Understanding Children's Behaviour in the Context of
Robotics and Social Artificial Intelligence [3.6017760602154576]
このワークショップは、開発科学、人工知能、社会ロボティクスなど、様々な分野の共通基盤を促進することを目的としている。
子ども向けユーザモデリングと適応システムの分野における最先端の研究について論じる。
論文 参考訳(メタデータ) (2022-10-20T10:58:42Z) - StoryBuddy: A Human-AI Collaborative Chatbot for Parent-Child
Interactive Storytelling with Flexible Parental Involvement [61.47157418485633]
私たちは、インタラクティブなストーリーテリング体験を作成するためのAI対応システムであるStoryBuddyを開発した。
ユーザスタディでは、StoryBuddyのユーザビリティを検証し、将来の親とAIのコラボレーションシステムの設計上の洞察を提案した。
論文 参考訳(メタデータ) (2022-02-13T04:53:28Z) - Exploring Machine Teaching with Children [9.212643929029403]
反復的な機械学習モデルの構築とテストは、子どもたちが機械学習や人工知能を使って創造性、柔軟性、快適さを育むのに役立つ。
子どもたちは、14人の子ども(7~13歳)と大人の共設計者で、機械教育のインターフェイスをどのように使うかを探る。
論文 参考訳(メタデータ) (2021-09-23T15:18:53Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。