論文の概要: OREBA: A Dataset for Objectively Recognizing Eating Behaviour and
Associated Intake
- arxiv url: http://arxiv.org/abs/2007.15831v3
- Date: Tue, 29 Sep 2020 23:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:31:49.581279
- Title: OREBA: A Dataset for Objectively Recognizing Eating Behaviour and
Associated Intake
- Title(参考訳): OREBA: 食行動と関連する摂取を客観的に認識するためのデータセット
- Authors: Philipp V. Rouast and Hamid Heydarian and Marc T. P. Adam and Megan E.
Rollo
- Abstract要約: 機械学習のアプローチでは、ラベル付きセンサーデータを使用して、検出の仕方を自動的に学習する。
目的認識行動と関連する摂取データセットを収集した。
OREBAデータセットは、共同食事中に記録された包括的なマルチセンサーデータを提供することを目的としている。
- 参考スコア(独自算出の注目度): 6.1938383008964495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic detection of intake gestures is a key element of automatic dietary
monitoring. Several types of sensors, including inertial measurement units
(IMU) and video cameras, have been used for this purpose. The common machine
learning approaches make use of the labeled sensor data to automatically learn
how to make detections. One characteristic, especially for deep learning
models, is the need for large datasets. To meet this need, we collected the
Objectively Recognizing Eating Behavior and Associated Intake (OREBA) dataset.
The OREBA dataset aims to provide comprehensive multi-sensor data recorded
during the course of communal meals for researchers interested in intake
gesture detection. Two scenarios are included, with 100 participants for a
discrete dish and 102 participants for a shared dish, totalling 9069 intake
gestures. Available sensor data consists of synchronized frontal video and IMU
with accelerometer and gyroscope for both hands. We report the details of data
collection and annotation, as well as details of sensor processing. The results
of studies on IMU and video data involving deep learning models are reported to
provide a baseline for future research. Specifically, the best baseline models
achieve performances of $F_1$ = 0.853 for the discrete dish using video and
$F_1$ = 0.852 for the shared dish using inertial data.
- Abstract(参考訳): 摂取ジェスチャーの自動検出は、食事の自動監視の重要な要素である。
慣性測定ユニット(IMU)やビデオカメラなど、いくつかの種類のセンサーがこの目的のために使用されている。
一般的な機械学習のアプローチでは、ラベル付きセンサーデータを使用して自動的に検出方法を学ぶ。
特にディープラーニングモデルに特徴的なのは,大規模なデータセットの必要性だ。
このニーズを満たすために、私たちはObjectively Recognizing Eating Behavior and Associated Intake (OREBA)データセットを収集しました。
OREBAデータセットは、共同食事中に記録された総合的なマルチセンサーデータを提供することを目的としている。
2つのシナリオがあり、100人の参加者が離散料理、102人の参加者が共食料理、合計9069人の摂取ジェスチャーがある。
利用可能なセンサデータは、両手に加速度計とジャイロスコープを備えた前面ビデオとimuの同期である。
本稿では,データ収集とアノテーションの詳細,およびセンサ処理の詳細について報告する。
深層学習モデルを用いたIMUと映像データの研究結果を報告し,今後の研究の基盤となるものと考えられる。
特に、最良のベースラインモデルは、ビデオを用いた離散皿では$f_1$ = 0.853、慣性データを用いた共有皿では$f_1$ = 0.852の性能を達成する。
関連論文リスト
- Advancing Location-Invariant and Device-Agnostic Motion Activity
Recognition on Wearable Devices [6.557453686071467]
センサ位置をまたいだ運動モデルの一般化可能性に関する総合的な評価を行う。
我々の分析は、この課題を強調し、位置不変モデルを構築する上で重要な位置を特定する。
本稿では,センサ配置に関係なく,デバイス上での動作モデルを単一モデルから91.41%のフレームレベルF1スコアに展開する。
論文 参考訳(メタデータ) (2024-02-06T05:10:00Z) - FedOpenHAR: Federated Multi-Task Transfer Learning for Sensor-Based
Human Activity Recognition [0.0]
本稿では,センサを用いた人間行動認識とデバイス位置識別の両課題に対して,フェデレート・トランスファー・ラーニングをマルチタスク方式で検討する。
OpenHARフレームワークは10個の小さなデータセットを含むモデルをトレーニングするために使用される。
タスク固有でパーソナライズされたフェデレーションモデルを用いたトランスファーラーニングとトレーニングにより、各クライアントを個別に訓練し、完全集中型アプローチよりも高い精度で学習した。
論文 参考訳(メタデータ) (2023-11-13T21:31:07Z) - DiffusionEngine: Diffusion Model is Scalable Data Engine for Object
Detection [41.436817746749384]
Diffusion Modelはオブジェクト検出のためのスケーラブルなデータエンジンである。
DiffusionEngine(DE)は、高品質な検出指向のトレーニングペアを単一のステージで提供する。
論文 参考訳(メタデータ) (2023-09-07T17:55:01Z) - Video-based Pose-Estimation Data as Source for Transfer Learning in
Human Activity Recognition [71.91734471596433]
オンボディデバイスを用いたヒューマンアクティビティ認識(HAR)は、制約のない環境での特定の人間の行動を特定する。
これまでの研究は、トランスファーラーニングが、少ないデータでシナリオに対処するための良い戦略であることを実証した。
本稿では,人為的位置推定を目的としたデータセットを伝達学習の情報源として用いることを提案する。
論文 参考訳(メタデータ) (2022-12-02T18:19:36Z) - Metric-based multimodal meta-learning for human movement identification
via footstep recognition [3.300376360949452]
マルチモーダル・フレームワークを導入した新しいメトリック・ベース・ラーニング・アプローチについて述べる。
我々は,全方位センサシステムから得られた低感度データから汎用表現を学習する。
本研究は,マルチセンサデータに対するメトリクスに基づくコントラスト学習手法を用いて,データ不足の影響を緩和する。
論文 参考訳(メタデータ) (2021-11-15T18:46:14Z) - Finding Facial Forgery Artifacts with Parts-Based Detectors [73.08584805913813]
顔の個々の部分に焦点を絞った一連の偽造検知システムを設計する。
これらの検出器を用いて、FaceForensics++、Celeb-DF、Facebook Deepfake Detection Challengeデータセットの詳細な実験分析を行う。
論文 参考訳(メタデータ) (2021-09-21T16:18:45Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Simple multi-dataset detection [83.9604523643406]
複数の大規模データセット上で統合検出器を訓練する簡単な方法を提案する。
データセット固有のアウトプットを共通の意味分類に自動的に統合する方法を示す。
私たちのアプローチは手動の分類学の調整を必要としません。
論文 参考訳(メタデータ) (2021-02-25T18:55:58Z) - Invariant Feature Learning for Sensor-based Human Activity Recognition [11.334750079923428]
被験者やデバイス間で共有される共通情報を抽出する不変特徴学習フレームワーク(IFLF)を提案する。
実験により、IFLFは、一般的なオープンデータセットと社内データセットをまたいだ主題とデバイスディバージョンの両方を扱うのに効果的であることが示された。
論文 参考訳(メタデータ) (2020-12-14T21:56:17Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。