論文の概要: Eat-Radar: Continuous Fine-Grained Intake Gesture Detection Using FMCW
Radar and 3D Temporal Convolutional Network with Attention
- arxiv url: http://arxiv.org/abs/2211.04253v2
- Date: Mon, 18 Dec 2023 14:52:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 03:30:16.774016
- Title: Eat-Radar: Continuous Fine-Grained Intake Gesture Detection Using FMCW
Radar and 3D Temporal Convolutional Network with Attention
- Title(参考訳): Eat-Radar:FMCWレーダと3次元時間畳み込みネットワークを用いた連続微粒吸入ジェスチャー検出
- Authors: Chunzhuo Wang, T. Sunil Kumar, Walter De Raedt, Guido Camps, Hans
Hallez, Bart Vanrumste
- Abstract要約: 食品摂取モニタリングのための接触型レーダーを用いた新しいアプローチを提案する。
高周波変調連続波(FMCW)レーダーセンサを用いて、微細な摂食・飲食のジェスチャーを認識する。
3D-TCN-Attを用いた3次元時間的畳み込みネットワークを開発し,食事セッションにおける摂食行動の検出とセグメンテーションを行った。
- 参考スコア(独自算出の注目度): 1.8932585560127178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unhealthy dietary habits are considered as the primary cause of various
chronic diseases, including obesity and diabetes. The automatic food intake
monitoring system has the potential to improve the quality of life (QoL) of
people with diet-related diseases through dietary assessment. In this work, we
propose a novel contactless radar-based approach for food intake monitoring.
Specifically, a Frequency Modulated Continuous Wave (FMCW) radar sensor is
employed to recognize fine-grained eating and drinking gestures. The
fine-grained eating/drinking gesture contains a series of movements from
raising the hand to the mouth until putting away the hand from the mouth. A 3D
temporal convolutional network with self-attention (3D-TCN-Att) is developed to
detect and segment eating and drinking gestures in meal sessions by processing
the Range-Doppler Cube (RD Cube). Unlike previous radar-based research, this
work collects data in continuous meal sessions (more realistic scenarios). We
create a public dataset comprising 70 meal sessions (4,132 eating gestures and
893 drinking gestures) from 70 participants with a total duration of 1,155
minutes. Four eating styles (fork & knife, chopsticks, spoon, hand) are
included in this dataset. To validate the performance of the proposed approach,
seven-fold cross-validation method is applied. The 3D-TCN-Att model achieves a
segmental F1-score of 0.896 and 0.868 for eating and drinking gestures,
respectively. The results of the proposed approach indicate the feasibility of
using radar for fine-grained eating and drinking gesture detection and
segmentation in meal sessions.
- Abstract(参考訳): 不健康な食事習慣は肥満や糖尿病など様々な慢性疾患の主要な原因と考えられている。
食品自動摂取モニタリングシステムは、食事アセスメントを通じて、食事関連疾患を有する人々のqolを改善する可能性を秘めている。
本研究では,食品摂取監視のための接触型レーダーを用いた新しいアプローチを提案する。
具体的には、細粒度飲食ジェスチャーを認識するために、周波数変調連続波(fmcw)レーダセンサを用いる。
細粒度の飲食ジェスチャーには、手を挙げてから口から手を離すまでの一連の動きが含まれている。
3D-TCN-Att) を用いた3次元時間畳み込みネットワークを構築し,レンジ・ドップラーキューブ(RDキューブ) の処理により食事中の食事・飲食行動の検出とセグメント分けを行う。
従来のレーダーベースの研究とは異なり、この研究は継続的食事セッション(より現実的なシナリオ)でデータを収集する。
我々は70名の参加者から70名の食事セッション(4,132件の食行動、893件の飲酒行動)を合計1,155分間の公開データセットを作成する。
このデータセットには4種類の食材(フォーク&ナイフ、チョップスティック、スプーン、手)が含まれている。
提案手法の性能を検証するために、7次元クロスバリデーション法を適用した。
3d-tcn-attモデルは、それぞれ摂食と飲食のためのセグメントf1-score 0.896と0.868を達成する。
提案手法は,食品セッションにおける細粒度食と飲酒のジェスチャ検出とセグメンテーションにおけるレーダの利用の可能性を示した。
関連論文リスト
- NutritionVerse-Direct: Exploring Deep Neural Networks for Multitask Nutrition Prediction from Food Images [63.314702537010355]
自己申告法はしばしば不正確であり、重大な偏見に悩まされる。
近年、食品画像から栄養情報を予測するためにコンピュータビジョン予測システムを用いた研究が進められている。
本稿では,様々なニューラルネットワークアーキテクチャを活用することにより,食事摂取量推定の有効性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-05-13T14:56:55Z) - How Much You Ate? Food Portion Estimation on Spoons [63.611551981684244]
現在の画像に基づく食品部分推定アルゴリズムは、ユーザが食事の画像を1、2回取ることを前提としている。
本稿では,静止型ユーザ向けカメラを用いて,機器上の食品の追跡を行う革新的なソリューションを提案する。
本システムは,スープやシチューなどの液状固形不均一混合物の栄養含量の推定に信頼性が高い。
論文 参考訳(メタデータ) (2024-05-12T00:16:02Z) - NutritionVerse-Real: An Open Access Manually Collected 2D Food Scene
Dataset for Dietary Intake Estimation [68.49526750115429]
食事摂取推定のための2D食品シーンデータセットであるNutritionVerse-Realを導入する。
NutritionVerse-Realデータセットは、実生活における食品シーンのイメージを手作業で収集し、各成分の重量を測定し、各料理の食生活内容を計算することによって作成されました。
論文 参考訳(メタデータ) (2023-11-20T11:05:20Z) - NutritionVerse: Empirical Study of Various Dietary Intake Estimation Approaches [59.38343165508926]
食事の正確な摂取推定は、健康的な食事を支援するための政策やプログラムを伝える上で重要である。
最近の研究は、コンピュータービジョンと機械学習を使用して、食物画像から食事摂取を自動的に推定することに焦点を当てている。
我々は,84,984個の合成2D食品画像と関連する食事情報を用いた最初の大規模データセットであるNutritionVerse-Synthを紹介した。
また、リアルなイメージデータセットであるNutritionVerse-Realを収集し、リアル性を評価するために、251の料理の889のイメージを含む。
論文 参考訳(メタデータ) (2023-09-14T13:29:41Z) - NutritionVerse-3D: A 3D Food Model Dataset for Nutritional Intake
Estimation [65.47310907481042]
高齢者の4人に1人は栄養不良です。
機械学習とコンピュータビジョンは、食品の自動栄養トラッキング方法の約束を示す。
NutritionVerse-3Dは、105個の3D食品モデルの大規模な高解像度データセットである。
論文 参考訳(メタデータ) (2023-04-12T05:27:30Z) - Vision-Based Food Analysis for Automatic Dietary Assessment [49.32348549508578]
本総説では, 食品画像分析, 容積推定, 栄養素抽出の3段階からなる, 統合型ビジョンベース食事評価(VBDA)の枠組みを概説する。
深層学習により、VBDAは徐々にエンドツーエンドの実装へと移行し、単一のネットワークに食品画像を適用して栄養を直接見積もる。
論文 参考訳(メタデータ) (2021-08-06T05:46:01Z) - MyFood: A Food Segmentation and Classification System to Aid Nutritional
Monitoring [1.5469452301122173]
食料モニタリングの欠如は、人口の体重増加に大きく寄与している。
食品画像を認識するためにコンピュータビジョンでいくつかのソリューションが提案されているが、栄養モニタリングに特化しているものはほとんどない。
本研究は, ユーザの食事と栄養摂取の自動モニタリングを支援するために, 画像に提示された食品を分類・分別するインテリジェントシステムの開発について述べる。
論文 参考訳(メタデータ) (2020-12-05T17:40:05Z) - A Data Driven End-to-end Approach for In-the-wild Monitoring of Eating
Behavior Using Smartwatches [8.257740966456172]
本稿では, 食事中の食行動の自動化と, 食事の時間的局在のモデル化に向けて, 完全な枠組みを提案する。
食物摂取事象(すなわち噛み跡)を検出するエンドツーエンドニューラルネットワークを提案する。
食事の開始点と終了点を信号処理アルゴリズムを用いて推定するために,検出した噛み跡の1日を通して分布を推定する方法を示す。
論文 参考訳(メタデータ) (2020-10-12T12:35:56Z) - Eating Habits Discovery in Egocentric Photo-streams [9.436913961194671]
食事関連行動パターン探索モデルを構築し,日常的に実施されている活動から栄養のルーチンを明らかにする。
このフレームワーク内では、単純だが堅牢で高速な新しい分類パイプラインを提示する。
本稿では,カメラが単独で食べる際の食品関連シーンの識別への応用について述べる。
論文 参考訳(メタデータ) (2020-09-16T12:46:35Z) - An Artificial Intelligence-Based System to Assess Nutrient Intake for
Hospitalised Patients [4.048427587958764]
入院患者の栄養摂取の定期的なモニタリングは、疾患関連栄養失調のリスクを低減する上で重要な役割を担っている。
本稿では,栄養摂取量を正確に推定する人工知能(AI)に基づく新しいシステムを提案する。
論文 参考訳(メタデータ) (2020-03-18T15:28:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。