論文の概要: Characterizing Barriers and Technology Needs in the Kitchen for Blind
and Low Vision People
- arxiv url: http://arxiv.org/abs/2310.05396v1
- Date: Mon, 9 Oct 2023 04:21:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 07:39:40.386213
- Title: Characterizing Barriers and Technology Needs in the Kitchen for Blind
and Low Vision People
- Title(参考訳): 視覚障害者のためのキッチンにおけるバリアと技術ニーズの特徴
- Authors: Ru Wang, Nihan Zhou, Tam Nguyen, Sanbrita Mondal, Bilge Mutlu, Yuhang
Zhao
- Abstract要約: 料理は視覚障害者にとって不可欠だが困難な活動である(PVI)
我々は, PVIの課題, 戦略, ニーズを, PVIとリハビリテーション専門家の両面から包括的に特徴付けることを目的としている。
その結果, 調理時の視力の低下と視覚障害者の差と, 訓練と現実の差が明らかとなった。
- 参考スコア(独自算出の注目度): 18.35863961442095
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cooking is a vital yet challenging activity for people with visual
impairments (PVI). It involves tasks that can be dangerous or difficult without
vision, such as handling a knife or adding a suitable amount of salt. A better
understanding of these challenges can inform the design of technologies that
mitigate safety hazards and improve the quality of the lives of PVI.
Furthermore, there is a need to understand the effects of different visual
abilities, including low vision and blindness, and the role of rehabilitation
training where PVI learn cooking skills and assistive technologies. In this
paper, we aim to comprehensively characterize PVI's challenges, strategies, and
needs in the kitchen from the perspectives of both PVI and rehabilitation
professionals. Through a contextual inquiry study, we observed 10 PVI,
including six low vision and four blind participants, when they cooked dishes
of their choices in their own kitchens. We then interviewed six rehabilitation
professionals to explore their training strategies and technology
recommendations. Our findings revealed the differences between low vision and
blind people during cooking as well as the gaps between training and reality.
We suggest improvements for rehabilitation training and distill design
considerations for future assistive technology in the kitchen.
- Abstract(参考訳): 料理は視覚障害者(pvi)にとって極めて困難な活動である。
それは、ナイフの取り扱いや適切な量の塩を加えるなど、視覚がなければ危険または難しいタスクを含む。
これらの課題のより深い理解は、安全リスクを軽減し、PVIの生活の質を向上させる技術の設計に役立てることができる。
さらに、視力の低下や視力の低下、PVIが調理技術や補助技術を学ぶためのリハビリテーショントレーニングの役割など、視覚能力の違いの影響を理解する必要がある。
本稿では, PVIの課題, 戦略, ニーズを, PVIとリハビリテーションの専門家の両方の観点から包括的に特徴付けることを目的とする。
コンテクスト・インスタディ(文脈調査)で、6人の低視力者と4人の盲目の被験者を含む10人のpviを観察した。
その後、6人のリハビリテーション専門家に、トレーニング戦略と技術推奨についてインタビューした。
その結果,料理中の視力の低下と視覚障害者の差,および訓練と現実の差が明らかになった。
キッチンにおける将来の補助技術に対するリハビリテーション訓練の改善と蒸留設計の考察を提案する。
関連論文リスト
- CATCH: Complementary Adaptive Token-level Contrastive Decoding to Mitigate Hallucinations in LVLMs [74.36850397755572]
CATCHは、未解決のシナリオにおいて、きめ細かい特徴知覚と累積幻覚を減少させる視覚的欠陥に関連する問題に対処する。
これは、特定のデータや事前知識を必要とせず、様々な視覚的質問応答タスクに適用でき、追加のトレーニングを必要とせず、新しいタスクにしっかりと一般化する。
論文 参考訳(メタデータ) (2024-11-19T18:27:31Z) - MetaFood CVPR 2024 Challenge on Physically Informed 3D Food Reconstruction: Methods and Results [52.07174491056479]
私たちはMetaFood Workshopを主催し、物理的にインフォームドされた3Dフードレコンストラクションへの挑戦を行っている。
本課題は,2次元画像から,視認性チェッカーボードをサイズ基準として,食品の容積正確な3次元モデルを再構築することに焦点を当てる。
この課題で開発されたソリューションは、3D食品の復元において有望な成果を達成し、食事評価と栄養モニタリングのための部分推定の改善に有意な可能性を秘めている。
論文 参考訳(メタデータ) (2024-07-12T14:15:48Z) - NutritionVerse-Direct: Exploring Deep Neural Networks for Multitask Nutrition Prediction from Food Images [63.314702537010355]
自己申告法はしばしば不正確であり、重大な偏見に悩まされる。
近年、食品画像から栄養情報を予測するためにコンピュータビジョン予測システムを用いた研究が進められている。
本稿では,様々なニューラルネットワークアーキテクチャを活用することにより,食事摂取量推定の有効性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-05-13T14:56:55Z) - How Much You Ate? Food Portion Estimation on Spoons [63.611551981684244]
現在の画像に基づく食品部分推定アルゴリズムは、ユーザが食事の画像を1、2回取ることを前提としている。
本稿では,静止型ユーザ向けカメラを用いて,機器上の食品の追跡を行う革新的なソリューションを提案する。
本システムは,スープやシチューなどの液状固形不均一混合物の栄養含量の推定に信頼性が高い。
論文 参考訳(メタデータ) (2024-05-12T00:16:02Z) - Rethinking Cooking State Recognition with Vision Transformers [0.0]
料理状態認識タスクにおいて視覚変換器(ViT)アーキテクチャの自己保持機構を提案する。
提案したアプローチは、画像から得られたグローバルな健全な特徴をカプセル化するとともに、より大きなデータセットから得られた重みを利用する。
私たちのフレームワークの精度は94.3%で、最先端のフレームワークよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-12-16T17:06:28Z) - SLAM for Visually Impaired People: a Survey [18.839307761493174]
視力障害と視覚障害に対するSLAMベースのソリューションに関する54の最近の研究の体系的な文献レビューを初めて紹介する。
視覚障害者のナビゲーションにおけるこれらの手法の利点と限界について論じる。
また,現実シナリオにおけるSLAMベースのソリューションの有効性とユーザ満足度を評価した。
論文 参考訳(メタデータ) (2022-12-09T09:45:43Z) - Vision-Based Food Analysis for Automatic Dietary Assessment [49.32348549508578]
本総説では, 食品画像分析, 容積推定, 栄養素抽出の3段階からなる, 統合型ビジョンベース食事評価(VBDA)の枠組みを概説する。
深層学習により、VBDAは徐々にエンドツーエンドの実装へと移行し、単一のネットワークに食品画像を適用して栄養を直接見積もる。
論文 参考訳(メタデータ) (2021-08-06T05:46:01Z) - Deep Learning and Machine Vision for Food Processing: A Survey [5.53479503648814]
食品の品質と安全性は、人間の健康、社会の発展、安定性の基礎であるため、社会全体にとって重要な問題です。
機械ビジョンの開発は、研究者や産業が食品加工の効率を向上させるのに大いに役立つ。
本稿では,従来の機械学習と深層学習の手法の概要と,食品加工分野に適用可能な機械ビジョン技術について概説する。
論文 参考訳(メタデータ) (2021-03-30T06:40:19Z) - Nutrition5k: Towards Automatic Nutritional Understanding of Generic Food [8.597152169571057]
本研究では,映像ストリーム,奥行き画像,成分重み,高精細な栄養コンテンツアノテーションを備えた,5kの多様な実世界の食品料理のデータセットである nutrition5kを紹介する。
本稿では, 複雑で現実的な料理のカロリーおよびマクロ栄養価を, プロの栄養士を上回る精度で予測できるコンピュータビジョンアルゴリズムを訓練することにより, このデータセットの可能性を実証する。
論文 参考訳(メタデータ) (2021-03-04T22:59:22Z) - Large-Scale Adversarial Training for Vision-and-Language Representation
Learning [81.76089876263175]
VILLAは視覚と言語(V+L)表現学習のための大規模対人訓練における最初の試みである。
VILLAは2つの訓練段階から構成される: (i) タスクに依存しない対人事前訓練、および (ii) タスク固有の対人微調整である。
論文 参考訳(メタデータ) (2020-06-11T05:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。