論文の概要: Engaging with Children's Artwork in Mixed Visual-Ability Families
- arxiv url: http://arxiv.org/abs/2407.18874v2
- Date: Tue, 30 Jul 2024 06:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 12:29:44.493588
- Title: Engaging with Children's Artwork in Mixed Visual-Ability Families
- Title(参考訳): 複合視覚能力家庭における子どものアートワークの育成
- Authors: Arnavi Chheda-Kothary, Jacob O. Wobbrock, Jon E. Froehlich,
- Abstract要約: 本研究は,視覚障害者の家族が視覚障害者のアートワークにどのように関与しているかを調査する2つの研究である。
BLVファミリーメンバーは、他の非視覚的表現よりも、子供のストーリーテリングや解釈を優先して、アートワークのエンゲージメントを結合機会として重視している。
いくつかの不正確さにもかかわらず、BLVの家族は、AIによって生成された記述は子供たちとの対話を促進し、自己誘導されたアート発見を助けることができると感じた。
- 参考スコア(独自算出の注目度): 17.972526489386578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present two studies exploring how blind or low-vision (BLV) family members engage with their sighted children's artwork, strategies to support understanding and interpretation, and the potential role of technology, such as AI, therein. Our first study involved 14 BLV individuals, and the second included five groups of BLV individuals with their children. Through semi-structured interviews with AI descriptions of children's artwork and multi-sensory design probes, we found that BLV family members value artwork engagement as a bonding opportunity, preferring the child's storytelling and interpretation over other nonvisual representations. Additionally, despite some inaccuracies, BLV family members felt that AI-generated descriptions could facilitate dialogue with their children and aid self-guided art discovery. We close with specific design considerations for supporting artwork engagement in mixed visual-ability families, including enabling artwork access through various methods, supporting children's corrections of AI output, and distinctions in context vs. content and interpretation vs. description of children's artwork.
- Abstract(参考訳): 本稿では,視覚障害者の家族と視覚障害者のアートワークの関わり方,理解と解釈を支援するための戦略,AIなどの技術の役割について検討する。
第1報では14名のBLV患者を対象とし,第2報では5名のBLV患者を対象とした。
子どものアートワークと多感覚デザインプローブのAI記述に関する半構造化インタビューを通じて,BLVの家族は,子どものストーリーテリングや解釈を他の非視覚的表現よりも好んで,アートのエンゲージメントを結合機会として重視することを発見した。
さらに、いくつかの不正確さにもかかわらず、BLVの家族は、AIが生成した記述は子供たちとの対話を促進し、自己指導によるアート発見を助けることができると感じた。
混合視覚能力家族におけるアートワークエンゲージメントを支援するため,様々な手法によるアートワークアクセスを可能にすること,子どものAI出力の補正を支援すること,コンテキストと内容と解釈の区別,子どものアートワークの記述など,デザイン上の考慮事項を整理した。
関連論文リスト
- AACP: Aesthetics assessment of children's paintings based on
self-supervised learning [17.672268781368672]
小児絵画の美学評価(AACP)は画像美学評価(IAA)の重要な分野である
これまでのアプローチでは、大規模なデータセットのトレーニングと、画像に対する美学スコアの提供に頼っていた。
子どもの絵の美学評価データセットを構築し,自己指導型学習モデルを構築した。
論文 参考訳(メタデータ) (2024-03-12T12:07:00Z) - Artwork Explanation in Large-scale Vision Language Models [32.645448509968226]
大規模視覚言語モデル(LVLM)は、画像と命令からテキストを出力し、テキスト生成と理解の高度な能力を示す。
そこで我々は,その評価データセットとメトリクスとともに,アートワークの説明生成タスクを提案する。
画像と作品名の両方から説明を生成することと、画像のみを用いて説明を生成することの2つの部分で構成されている。
以上の結果から,LVLMは言語情報と視覚情報の統合に苦慮するだけでなく,画像のみからの知識獲得にも限界があることが示唆された。
論文 参考訳(メタデータ) (2024-02-29T19:01:03Z) - "When He Feels Cold, He Goes to the Seahorse"-Blending Generative AI
into Multimaterial Storymaking for Family Expressive Arts Therapy [6.622039598177816]
治療的ストーリー作成における表現的素材としての生成的AIはいまだ研究されていない。
この研究は、プロのセラピストが指導する7家族による5週間のストーリーメイキングセッションを含む。
私たちは、家族が創造的にAIと伝統的な表現力のある素材を融合させ、彼らの考えや感情を外部化する方法を文脈化します。
論文 参考訳(メタデータ) (2024-02-09T15:25:36Z) - Exploring Parent's Needs for Children-Centered AI to Support
Preschoolers' Storytelling and Reading Activities [54.8155184348616]
人工知能の新たな進歩により、AIベースのストーリーテリング技術が急増した。
本稿では,実践的なストーリーテリングシナリオにおけるそれらの機能と,最も重要な利害関係者である両親が,それらをどう理解し,知覚するかを検討する。
我々の知見は、AIベースのストーリーテリング技術は、より没入的で活発な相互作用を提供するが、親の期待に応えられないことを示唆している。
論文 参考訳(メタデータ) (2024-01-24T20:55:40Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - StoryBuddy: A Human-AI Collaborative Chatbot for Parent-Child
Interactive Storytelling with Flexible Parental Involvement [61.47157418485633]
私たちは、インタラクティブなストーリーテリング体験を作成するためのAI対応システムであるStoryBuddyを開発した。
ユーザスタディでは、StoryBuddyのユーザビリティを検証し、将来の親とAIのコラボレーションシステムの設計上の洞察を提案した。
論文 参考訳(メタデータ) (2022-02-13T04:53:28Z) - Describing image focused in cognitive and visual details for visually
impaired people: An approach to generating inclusive paragraphs [2.362412515574206]
ウェブナーなど、オンラインコンテンツに表示される画像コンテキストの理解など、特定のタスクをサポートするサービスが不足している。
本稿では,高密度キャプション手法とフィルタを併用したウェビナー画像のコンテキスト生成手法を提案し,ドメイン内のキャプションに適合する手法と抽象要約タスクのための言語モデルを提案する。
論文 参考訳(メタデータ) (2022-02-10T21:20:53Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - ArtEmis: Affective Language for Visual Art [46.643106054408285]
我々は視覚アートワークによって引き起こされる情緒体験に焦点を当てる。
ある画像に対して感じている支配的な感情を示すために、注釈を付けます。
これにより、目的コンテンツとイメージの感情的影響の両方に対して、リッチな信号セットが導かれる。
論文 参考訳(メタデータ) (2021-01-19T01:03:40Z) - Learning of Art Style Using AI and Its Evaluation Based on Psychological
Experiments [1.0499611180329802]
GAN(Generative Adversarial Network)は、より少ないトレーニングデータでディープラーニングを実行できる新しいAI技術である。
GANを用いて異なるスタイルのアートセットの比較を行った。
論文 参考訳(メタデータ) (2020-05-04T07:19:37Z) - Improving Vision-and-Language Navigation with Image-Text Pairs from the
Web [75.08703115646613]
インストラクションとパノラマRGB画像の整合性を評価するための視覚言語変換モデルであるVLN-BERTを開発した。
具体的パスインストラクションデータに基づく微調整前,Webからの画像テキストペア上でのVLN-BERTの事前学習は,VLNの性能を著しく向上させることを示した。
論文 参考訳(メタデータ) (2020-04-30T17:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。