論文の概要: Multimodal AI for Body Fat Estimation: Computer Vision and Anthropometry with DEXA Benchmarks
- arxiv url: http://arxiv.org/abs/2511.17576v1
- Date: Sat, 15 Nov 2025 00:20:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.244808
- Title: Multimodal AI for Body Fat Estimation: Computer Vision and Anthropometry with DEXA Benchmarks
- Title(参考訳): 体脂肪推定のためのマルチモーダルAI:DEXAベンチマークを用いたコンピュータビジョンと人体計測
- Authors: Rayan Aldajani,
- Abstract要約: DEXAスキャンのようなゴールドスタンダードの手法は高価であり、ほとんどの人にとっては利用できない。
本研究では,前頭体画像と基本的な人文計測データを用いて,人工知能(AI)モデルの実現可能性について,低コストな代替手段として評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking body fat percentage is essential for effective weight management, yet gold-standard methods such as DEXA scans remain expensive and inaccessible for most people. This study evaluates the feasibility of artificial intelligence (AI) models as low-cost alternatives using frontal body images and basic anthropometric data. The dataset consists of 535 samples: 253 cases with recorded anthropometric measurements (weight, height, neck, ankle, and wrist) and 282 images obtained via web scraping from Reddit posts with self-reported body fat percentages, including some reported as DEXA-derived by the original posters. Because no public datasets exist for computer-vision-based body fat estimation, this dataset was compiled specifically for this study. Two approaches were developed: (1) ResNet-based image models and (2) regression models using anthropometric measurements. A multimodal fusion framework is also outlined for future expansion once paired datasets become available. The image-based model achieved a Root Mean Square Error (RMSE) of 4.44% and a Coefficient of Determination (R^2) of 0.807. These findings demonstrate that AI-assisted models can offer accessible and low-cost body fat estimates, supporting future consumer applications in health and fitness.
- Abstract(参考訳): 体脂肪率の追跡は効果的な体重管理には不可欠であるが、DEXAスキャンのような金標準法は高価であり、ほとんどの人にとっては利用できない。
本研究では,前頭体画像と基本的な人文計測データを用いて,人工知能(AI)モデルの実現可能性について,低コストな代替手段として評価する。
データセットは535のサンプルで構成されており、記録された人体計測値(体重、身長、首、足首、手首)を持つ253例と、Redditの投稿から得られたウェブスクレイピングで得られた282例の画像を自己申告された体脂肪の割合で分析した。
コンピュータビジョンに基づく体脂肪推定のためのパブリックデータセットは存在しないため、このデータセットは特に本研究のためにコンパイルされた。
1)ResNetに基づく画像モデルと,(2)人体計測を用いた回帰モデルである。
ペア化されたデータセットが利用可能になったら、将来の拡張のために、マルチモーダルフュージョンフレームワークも概説されている。
画像ベースモデルは4.44%のルート平均角誤差(RMSE)と0.807の係数(R^2)を達成した。
これらの結果は、AIが支援するモデルが、健康とフィットネスの将来の消費者応用をサポートするために、アクセス可能で低コストな体脂肪推定を提供することを示している。
関連論文リスト
- Early Prediction of Type 2 Diabetes Using Multimodal data and Tabular Transformers [1.2744523252873352]
我々は1,382名の被験者からなる振り返り型カタールバイオバンクでTabTransモデルを検証した。
提案したモデルの性能は,従来の機械学習(ML)と生成AIモデルに対して評価される。
このTabTransモデルでは, 予測性能が優れ, ROC AUC $geq$ 79.7% のT2DM予測が可能であった。
論文 参考訳(メタデータ) (2026-01-19T11:55:41Z) - Dual-Model Weight Selection and Self-Knowledge Distillation for Medical Image Classification [47.17249726328169]
自己知識蒸留(SKD)と二重モデル重み選択を統合した新しい医用画像分類法を提案する。
提案手法は,コンパクトモデルにおいて重要な情報の保持に失敗する従来の手法の限界を克服する。
論文 参考訳(メタデータ) (2025-08-28T06:15:06Z) - Predicting Anthropometric Body Composition Variables Using 3D Optical Imaging and Machine Learning [0.0]
本研究では,3次元光学画像から得られたバイオマーカーに統計的および機械学習モデルを適用することで,DXAスキャンに代わる手法を提案する。
患者のデータを医療で抽出することは、多くの技術的課題と法的制約に直面している。
これらの制約を克服するため、我々は半教師付きモデルである$p$-Laplacian回帰モデルを実装した。
論文 参考訳(メタデータ) (2025-06-08T03:42:56Z) - Where's the liability in the Generative Era? Recovery-based Black-Box Detection of AI-Generated Content [53.93606081932928]
APIアクセスのみを必要とする新しいブラックボックス検出フレームワークを導入する。
画像がモデル自身によって生成された可能性を測定する。
マスクされた画像入力をサポートしないブラックボックスモデルに対して、ターゲットモデル分布に適合するように訓練された費用効率の良い代理モデルを導入する。
論文 参考訳(メタデータ) (2025-05-02T05:11:35Z) - Automated Muscle and Fat Segmentation in Computed Tomography for Comprehensive Body Composition Analysis [13.839714715661438]
我々は,CTの身体組成分析に特化して,一般にアクセス可能なエンドツーエンドのセグメンテーションと特徴計算モデルを提案する。
本モデルでは, 胸部, 腹部, 骨盤領域における骨格筋, 皮下脂肪組織 (SAT) , 内臓脂肪組織 (VAT) の分画を行う。
また、筋肉密度、内臓-皮下脂肪比(SAT/SAT)、筋肉面積/体積、骨格筋指数(SMI)など、様々な身体組成指標も提供する。
論文 参考訳(メタデータ) (2025-02-13T21:27:10Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - LiveXiv -- A Multi-Modal Live Benchmark Based on Arxiv Papers Content [62.816876067499415]
我々は、科学的ArXiv論文に基づくスケーラブルな進化型ライブベンチマークであるLiveXivを提案する。
LiveXivは、任意のタイムスタンプでドメイン固有の原稿にアクセスし、視覚的な問合せペアを自動的に生成することを提案する。
ベンチマークの最初のバージョンで、複数のオープンでプロプライエタリなLMM(Large Multi-modal Models)をベンチマークし、その挑戦的な性質を示し、モデルの真の能力を明らかにする。
論文 参考訳(メタデータ) (2024-10-14T17:51:23Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - Body Fat Estimation from Surface Meshes using Graph Neural Networks [48.85291874087541]
三角体表面メッシュを用いて,グラフニューラルネットワークを用いて,VATおよびASATボリュームを正確に予測できることを示す。
本手法は,この領域の最先端畳み込みニューラルネットワークと比較して,トレーニング時間と必要なリソースを削減しつつ高い性能を実現する。
論文 参考訳(メタデータ) (2023-07-13T10:21:34Z) - BOSS: Bones, Organs and Skin Shape Model [10.50175010474078]
我々は,CT画像から学習した皮膚,内臓,骨を結合した変形可能な人体形状とポーズモデルを提案する。
確率的PCAを用いて、ポーズ正規化空間の統計的変動をモデル化することにより、本手法は身体の全体像を提供する。
論文 参考訳(メタデータ) (2023-03-08T22:31:24Z) - Multi-view information fusion using multi-view variational autoencoders
to predict proximal femoral strength [6.431560548938618]
本研究の目的は,多視点情報融合を用いた大腿骨近位部強度予測のための深層学習モデルの設計である。
特徴表現学習のための多視点変分オートエンコーダ(MVAE)と多視点情報融合のための専門家モデル(PoE)を用いた新しいモデルを開発した。
論文 参考訳(メタデータ) (2022-10-03T01:31:34Z) - 3D Human Body Reshaping with Anthropometric Modeling [59.51820187982793]
人間測定パラメータから正確で現実的な3D人体を再構築することは、個人識別、オンラインショッピング、仮想現実のための基本的な課題です。
このような3d形状を作る既存のアプローチは、レンジカメラやハイエンドスキャナーによる複雑な測定に苦しむことが多い。
本稿では,各ファセットに対する自動人為的パラメータモデリングを可能にする,特徴選択に基づく局所マッピング手法を提案する。
論文 参考訳(メタデータ) (2021-04-05T04:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。