論文の概要: Eat-Radar: Continuous Fine-Grained Eating Gesture Detection Using FMCW
Radar and 3D Temporal Convolutional Network
- arxiv url: http://arxiv.org/abs/2211.04253v1
- Date: Tue, 8 Nov 2022 14:03:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 17:23:26.041539
- Title: Eat-Radar: Continuous Fine-Grained Eating Gesture Detection Using FMCW
Radar and 3D Temporal Convolutional Network
- Title(参考訳): eat-radar:fmcwレーダと3次元時間畳み込みネットワークを用いた連続細粒食ジェスチャー検出
- Authors: Chunzhuo Wang, T. Sunil Kumar, Walter De Raedt, Guido Camps, Hans
Hallez, Bart Vanrumste
- Abstract要約: 本稿では,新しい接触型レーダーによる食品摂取モニタリング手法を提案する。
高周波変調連続波(FMCW)レーダーセンサを用いて、微細な摂食・飲食のジェスチャーを認識する。
3次元時間畳み込みネットワーク(3D-TCN)を開発した。
- 参考スコア(独自算出の注目度): 1.3701366534590498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unhealthy dietary habits are considered as the primary cause of multiple
chronic diseases such as obesity and diabetes. The automatic food intake
monitoring system has the potential to improve the quality of life (QoF) of
people with dietary related diseases through dietary assessment. In this work,
we propose a novel contact-less radar-based food intake monitoring approach.
Specifically, a Frequency Modulated Continuous Wave (FMCW) radar sensor is
employed to recognize fine-grained eating and drinking gestures. The
fine-grained eating/drinking gesture contains a series of movement from raising
the hand to the mouth until putting away the hand from the mouth. A 3D temporal
convolutional network (3D-TCN) is developed to detect and segment eating and
drinking gestures in meal sessions by processing the Range-Doppler Cube (RD
Cube). Unlike previous radar-based research, this work collects data in
continuous meal sessions. We create a public dataset that contains 48 meal
sessions (3121 eating gestures and 608 drinking gestures) from 48 participants
with a total duration of 783 minutes. Four eating styles (fork & knife,
chopsticks, spoon, hand) are included in this dataset. To validate the
performance of the proposed approach, 8-fold cross validation method is
applied. Experimental results show that our proposed 3D-TCN outperforms the
model that combines a convolutional neural network and a long-short-term-memory
network (CNN-LSTM), and also the CNN-Bidirectional LSTM model (CNN-BiLSTM) in
eating and drinking gesture detection. The 3D-TCN model achieves a segmental
F1-score of 0.887 and 0.844 for eating and drinking gestures, respectively. The
results of the proposed approach indicate the feasibility of using radar for
fine-grained eating and drinking gesture detection and segmentation in meal
sessions.
- Abstract(参考訳): 不健康な食事習慣は、肥満や糖尿病などの複数の慢性疾患の主要な原因と考えられている。
自動摂食監視システムは、食事アセスメントを通じて、食事関連疾患を有する人々のqof( quality of life)を改善する可能性を秘めている。
本研究では,新しい接触型レーダーによる食品摂取モニタリング手法を提案する。
具体的には、細粒度飲食ジェスチャーを認識するために、周波数変調連続波(fmcw)レーダセンサを用いる。
細粒度の飲食ジェスチャーは、手を挙げてから口から手を離すまでの一連の動きを含む。
3次元時間畳み込みネットワーク(3d-tcn)を開発し、レンジドップラーキューブ(rdキューブ)を処理し、食事セッションにおける食事中の摂食と飲酒のジェスチャーの検出とセグメント化を行う。
従来のレーダーベースの研究とは異なり、この研究は連続的な食事セッションでデータを収集する。
参加者48名から48回の食事セッション(3121回の食事行動と608回の飲酒行動)を合計783分間の公開データセットを作成する。
このデータセットには4種類の食材(フォーク&ナイフ、チョップスティック、スプーン、手)が含まれている。
提案手法の性能を検証するために8倍のクロス検証法を適用した。
実験の結果,提案した3D-TCNは,畳み込みニューラルネットワークと長期記憶ネットワーク(CNN-LSTM)と,摂食行動検出におけるCNN-Bidirectional LSTMモデル(CNN-BiLSTM)を併用したモデルよりも優れていた。
3D-TCNモデルでは,食行動と飲酒行動においてそれぞれ0.887と0.844のセグメントF1スコアを達成する。
提案手法は,食品セッションにおける細粒度食と飲酒のジェスチャ検出とセグメンテーションにおけるレーダの利用の可能性を示した。
関連論文リスト
- NutritionVerse-Direct: Exploring Deep Neural Networks for Multitask Nutrition Prediction from Food Images [63.314702537010355]
自己申告法はしばしば不正確であり、重大な偏見に悩まされる。
近年、食品画像から栄養情報を予測するためにコンピュータビジョン予測システムを用いた研究が進められている。
本稿では,様々なニューラルネットワークアーキテクチャを活用することにより,食事摂取量推定の有効性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-05-13T14:56:55Z) - How Much You Ate? Food Portion Estimation on Spoons [63.611551981684244]
現在の画像に基づく食品部分推定アルゴリズムは、ユーザが食事の画像を1、2回取ることを前提としている。
本稿では,静止型ユーザ向けカメラを用いて,機器上の食品の追跡を行う革新的なソリューションを提案する。
本システムは,スープやシチューなどの液状固形不均一混合物の栄養含量の推定に信頼性が高い。
論文 参考訳(メタデータ) (2024-05-12T00:16:02Z) - NutritionVerse-Real: An Open Access Manually Collected 2D Food Scene
Dataset for Dietary Intake Estimation [68.49526750115429]
食事摂取推定のための2D食品シーンデータセットであるNutritionVerse-Realを導入する。
NutritionVerse-Realデータセットは、実生活における食品シーンのイメージを手作業で収集し、各成分の重量を測定し、各料理の食生活内容を計算することによって作成されました。
論文 参考訳(メタデータ) (2023-11-20T11:05:20Z) - NutritionVerse: Empirical Study of Various Dietary Intake Estimation Approaches [59.38343165508926]
食事の正確な摂取推定は、健康的な食事を支援するための政策やプログラムを伝える上で重要である。
最近の研究は、コンピュータービジョンと機械学習を使用して、食物画像から食事摂取を自動的に推定することに焦点を当てている。
我々は,84,984個の合成2D食品画像と関連する食事情報を用いた最初の大規模データセットであるNutritionVerse-Synthを紹介した。
また、リアルなイメージデータセットであるNutritionVerse-Realを収集し、リアル性を評価するために、251の料理の889のイメージを含む。
論文 参考訳(メタデータ) (2023-09-14T13:29:41Z) - NutritionVerse-3D: A 3D Food Model Dataset for Nutritional Intake
Estimation [65.47310907481042]
高齢者の4人に1人は栄養不良です。
機械学習とコンピュータビジョンは、食品の自動栄養トラッキング方法の約束を示す。
NutritionVerse-3Dは、105個の3D食品モデルの大規模な高解像度データセットである。
論文 参考訳(メタデータ) (2023-04-12T05:27:30Z) - Vision-Based Food Analysis for Automatic Dietary Assessment [49.32348549508578]
本総説では, 食品画像分析, 容積推定, 栄養素抽出の3段階からなる, 統合型ビジョンベース食事評価(VBDA)の枠組みを概説する。
深層学習により、VBDAは徐々にエンドツーエンドの実装へと移行し、単一のネットワークに食品画像を適用して栄養を直接見積もる。
論文 参考訳(メタデータ) (2021-08-06T05:46:01Z) - MyFood: A Food Segmentation and Classification System to Aid Nutritional
Monitoring [1.5469452301122173]
食料モニタリングの欠如は、人口の体重増加に大きく寄与している。
食品画像を認識するためにコンピュータビジョンでいくつかのソリューションが提案されているが、栄養モニタリングに特化しているものはほとんどない。
本研究は, ユーザの食事と栄養摂取の自動モニタリングを支援するために, 画像に提示された食品を分類・分別するインテリジェントシステムの開発について述べる。
論文 参考訳(メタデータ) (2020-12-05T17:40:05Z) - A Data Driven End-to-end Approach for In-the-wild Monitoring of Eating
Behavior Using Smartwatches [8.257740966456172]
本稿では, 食事中の食行動の自動化と, 食事の時間的局在のモデル化に向けて, 完全な枠組みを提案する。
食物摂取事象(すなわち噛み跡)を検出するエンドツーエンドニューラルネットワークを提案する。
食事の開始点と終了点を信号処理アルゴリズムを用いて推定するために,検出した噛み跡の1日を通して分布を推定する方法を示す。
論文 参考訳(メタデータ) (2020-10-12T12:35:56Z) - Eating Habits Discovery in Egocentric Photo-streams [9.436913961194671]
食事関連行動パターン探索モデルを構築し,日常的に実施されている活動から栄養のルーチンを明らかにする。
このフレームワーク内では、単純だが堅牢で高速な新しい分類パイプラインを提示する。
本稿では,カメラが単独で食べる際の食品関連シーンの識別への応用について述べる。
論文 参考訳(メタデータ) (2020-09-16T12:46:35Z) - An Artificial Intelligence-Based System to Assess Nutrient Intake for
Hospitalised Patients [4.048427587958764]
入院患者の栄養摂取の定期的なモニタリングは、疾患関連栄養失調のリスクを低減する上で重要な役割を担っている。
本稿では,栄養摂取量を正確に推定する人工知能(AI)に基づく新しいシステムを提案する。
論文 参考訳(メタデータ) (2020-03-18T15:28:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。