論文の概要: More than One Step at a Time: Designing Procedural Feedback for Non-visual Makeup Routines
- arxiv url: http://arxiv.org/abs/2507.03942v1
- Date: Sat, 05 Jul 2025 08:00:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.949131
- Title: More than One Step at a Time: Designing Procedural Feedback for Non-visual Makeup Routines
- Title(参考訳): 一度に1ステップ以上:非視覚的メイクアップルーチンのための手続き的フィードバックの設計
- Authors: Franklin Mingzhe Li, Akihiko Oharazawa, Chloe Qingyu Zhu, Misty Fan, Daisuke Sato, Chieko Asakawa, Patrick Carrington,
- Abstract要約: 視覚障害者15名を対象に,文脈調査を行った。
我々は、リアルタイムメイクアプリケーションの動作とステップバイステップの情報要求と評価アプローチを捉えた。
本研究は, ブレンディング, 対称性, 評価において, 具体的, 触覚的戦略, 持続的課題を明らかにした。
我々は,非視覚的メイクにおけるフィードバックニーズの分類に寄与し,将来の補助システムに対する設計上の意味を概説する。
- 参考スコア(独自算出の注目度): 11.612272841064005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Makeup plays a vital role in self-expression, identity, and confidence - yet remains an underexplored domain for assistive technology, especially for people with vision impairments. While existing tools support isolated tasks such as color identification or product labeling, they rarely address the procedural complexity of makeup routines: coordinating step sequences, managing product placement, and assessing the final look with accessible feedback. To understand the real-world process, we conducted a contextual inquiry with 15 visually impaired makeup users, capturing real-time makeup application behaviors and their step-by-step information needs and assessment approaches. Our findings reveal embodied, tactile-first strategies; persistent challenges in blending, symmetry, and assessment; and a desire for honest, real-time, goal-aligned feedback. We also interviewed five professional makeup artists, who reviewed participant makeup videos and provided expert responses to participant-raised questions and assessment practices. We contribute a taxonomy of feedback needs in non-visual makeup, and outline design implications for future assistive systems - emphasizing hands-free, conversational interaction and context-aware, procedural support for expressive and independent beauty practices.
- Abstract(参考訳): メイクアップは自己表現、アイデンティティ、自信において重要な役割を担います。
既存のツールは、色識別や製品ラベリングのような独立したタスクをサポートするが、ステップシーケンスの調整、製品配置の管理、そしてアクセス可能なフィードバックで最終的な外観を評価するといった、メイクルーチンの手続き的な複雑さに対処することは滅多にない。
実世界のプロセスを理解するため,視覚障害者15名を対象に,実時間メイクアプリケーションの動作とステップバイステップ情報の必要性と評価アプローチを把握し,文脈調査を行った。
その結果,具体的で触覚優先の戦略,ブレンディング,対称性,評価における永続的な課題,誠実でリアルタイムな目標に沿ったフィードバックへの欲求が明らかになった。
また,5人のプロのメイクアップアーティストにインタビューを行い,参加者のメイクアップ映像をレビューし,参加者が評価した質問やアセスメントの実践に対して専門家の回答を提供した。
我々は,非視覚的メイクにおけるフィードバックニーズの分類に寄与し,ハンズフリー,対話型インタラクション,コンテキスト認識,表現的かつ独立的な美的実践のための手続き的支援など,将来の補助システムに対する設計上の意味を概説する。
関連論文リスト
- AvatarMakeup: Realistic Makeup Transfer for 3D Animatable Head Avatars [89.31582684550723]
AvatarMakeupは、アニメーションを通して最先端のメイクアップ転送品質と一貫性を達成する。
コヒーレント複製は、生成した化粧画像中の平均的な顔属性を復号することで、グローバルな紫外線マップを最適化する。
実験によると、AvatarMakeupはアニメーションを通して、最先端のメイクアップの質と一貫性を実現する。
論文 参考訳(メタデータ) (2025-07-03T08:26:57Z) - What About Emotions? Guiding Fine-Grained Emotion Extraction from Mobile App Reviews [3.24647377768909]
アプリレビューにおけるきめ細かい感情分類は、まだ未調査だ。
我々の研究は、構造化アノテーションフレームワークとデータセットを開発することにより、Plutchikの感情分類をアプリレビューに適用する。
大規模言語モデルを用いて感情表現の自動化の実現可能性を評価する。
論文 参考訳(メタデータ) (2025-05-29T13:58:38Z) - Towards More Accurate Personalized Image Generation: Addressing Overfitting and Evaluation Bias [52.590072198551944]
画像パーソナライズの目的は、ユーザが提供する課題に基づいて画像を作成することである。
現在の手法では、テキストプロンプトへの忠実性を保証する上で、課題に直面している。
トレーニング画像の歪みを除去するアトラクタを組み込んだ,新たなトレーニングパイプラインを導入する。
論文 参考訳(メタデータ) (2025-03-09T14:14:02Z) - Scaffolding Empathy: Training Counselors with Simulated Patients and Utterance-level Performance Visualizations [9.257985820123]
我々は,シミュレートされた患者と対話する訓練者に対して,頻繁かつ詳細なフィードバックを提供することで,カウンセラー研修を加速し,最適化することを目指している。
最初のアプリケーションドメインは、カウンセラーのためのモチベーション面接スキルのトレーニングです。
シミュレーションされた患者とターンバイターンのパフォーマンスフィードバックの可視化を特徴とするLCMを用いたトレーニングシステムを開発し,評価した。
論文 参考訳(メタデータ) (2025-02-25T22:12:24Z) - PersonaMagic: Stage-Regulated High-Fidelity Face Customization with Tandem Equilibrium [55.72249032433108]
PersonaMagicは、高忠実な顔のカスタマイズのために設計された、ステージ制御された生成技術である。
本手法は,顔の概念を捉えるために,特定の時間間隔内に一連の埋め込みを学習する。
定性評価と定量的評価の両方において、ペルソナマジックが最先端の手法よりも優れていることを確認する。
論文 参考訳(メタデータ) (2024-12-20T08:41:25Z) - GUI Agents: A Survey [129.94551809688377]
グラフィカルユーザインタフェース(GUI)エージェントは、人間とコンピュータのインタラクションを自動化するためのトランスフォーメーションアプローチとして登場した。
GUIエージェントの関心の高まりと基本的な重要性により、ベンチマーク、評価指標、アーキテクチャ、トレーニングメソッドを分類する総合的な調査を提供する。
論文 参考訳(メタデータ) (2024-12-18T04:48:28Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - RealSmileNet: A Deep End-To-End Network for Spontaneous and Posed Smile
Recognition [12.649576554639445]
これらの問題に対処するために,エンド・ツー・エンドのディープラーニングモデルについて検討する。
我々の完全自動化モデルは高速で、一連の畳み込み層とConvLSTM層をスクラッチからトレーニングすることで特徴抽出プロセスを学びます。
4つのデータセットに対する実験は,提案モデルの堅牢性と一般化を実証するものである。
論文 参考訳(メタデータ) (2020-10-07T06:23:38Z) - From A Glance to "Gotcha": Interactive Facial Image Retrieval with
Progressive Relevance Feedback [72.29919762941029]
本稿では,目撃者から徐々にフィードバックを得て顔画像を取得するためのエンドツーエンドフレームワークを提案する。
追加のアノテーションを必要とせずに、私たちのモデルは少しのレスポンスの努力を犠牲にして適用できます。
論文 参考訳(メタデータ) (2020-07-30T18:46:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。