論文の概要: FaceAtlasAR: Atlas of Facial Acupuncture Points in Augmented Reality
- arxiv url: http://arxiv.org/abs/2111.14755v1
- Date: Mon, 29 Nov 2021 18:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 19:06:31.296912
- Title: FaceAtlasAR: Atlas of Facial Acupuncture Points in Augmented Reality
- Title(参考訳): FaceAtlasAR:拡張現実における顔面痛点のアトラス
- Authors: Menghe Zhang, Jurgen Schulze, and Dong Zhang
- Abstract要約: FaceAtlasARは、拡張現実(AR)コンテキストで顔のアキューポイントをローカライズし視覚化するプロトタイプシステムである。
本システムは,1)解剖学的に可能な方法で,顔のアキュポイントと耳介ゾーンマップを局在化すること,2)要求されたアキュポイントをARでカテゴリー別にオーバーレイすること,3)耳介ゾーンマップを耳介に示すことを目的としている。
- 参考スコア(独自算出の注目度): 4.401025250375727
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Acupuncture is a technique in which practitioners stimulate specific points
on the body. These points, called acupuncture points (or acupoints),
anatomically define areas on the skin relative to some landmarks on the body.
Traditional acupuncture treatment relies on experienced acupuncturists for
precise positioning of acupoints. A novice typically finds it difficult because
of the lack of visual cues. This project presents FaceAtlasAR, a prototype
system that localizes and visualizes facial acupoints in an augmented reality
(AR) context. The system aims to 1) localize facial acupoints and auricular
zone map in an anatomical yet feasible way, 2) overlay the requested acupoints
by category in AR, and 3) show auricular zone map on the ears. We adopt
Mediapipe, a cross-platform machine learning framework, to build the pipeline
that runs on desktop and Android phones. We perform experiments on different
benchmarks, including "In-the-wild", AMI ear datasets, and our own annotated
datasets. Results show the localization accuracy of 95% for facial acupoints,
99% / 97% ("In-the-wild" / AMI) for auricular zone map, and high robustness.
With this system, users, even not professionals, can position the acupoints
quickly for their self-acupressure treatments.
- Abstract(参考訳): acupunctureは、開業医が身体の特定の点を刺激する技術である。
これらの点(または尖点)は、身体のいくつかのランドマークに対して解剖学的に皮膚の領域を定義する。
伝統的な治療は、経験豊富な治療士がキューポイントの正確な位置決めに頼っている。
初心者は通常、視覚的な手がかりがないため難しいと感じる。
このプロジェクトは、拡張現実(AR)コンテキストで顔のアキューポイントをローカライズし視覚化するプロトタイプシステムであるFaceAtlasARを提示する。
システムは
1) 解剖学的だが実現可能な方法で, 顔面尖点と耳介ゾーンマップを局在させる。
2)要求されたacupointsをarのカテゴリ別にオーバーレイし、
3)耳に耳帯地図を表示する。
クロスプラットフォームの機械学習フレームワークであるMediapipeを採用して、デスクトップとAndroid携帯で動作するパイプラインを構築しています。
我々は、"In-the-wild"やAMI耳データセット、アノテーション付きデータセットなど、さまざまなベンチマークで実験を行います。
その結果, 顔尖点の95%, 耳介帯マップの99%/97% (in-the-wild / ami) , 高ロバスト性が得られた。
このシステムでは、プロではないユーザでも、自己容積治療のために素早くキューポイントを配置できる。
関連論文リスト
- Improving Facial Landmark Detection Accuracy and Efficiency with Knowledge Distillation [4.779050216649159]
本稿では,知識蒸留法の開発を通じて,これらの課題に対処する新しいアプローチを提案する。
私たちの目標は、さまざまな条件下で顔のランドマークを正確に特定できるモデルを設計することです。
この手法は成功し、IEEE ICME 2024 PAIRコンペティションの参加者165人中6位に終わった。
論文 参考訳(メタデータ) (2024-04-09T05:30:58Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - An Algorithm for the Labeling and Interactive Visualization of the
Cerebrovascular System of Ischemic Strokes [59.116811751334225]
VirtualDSA++は、CTAスキャンで脳血管ツリーをセグメンテーションし、ラベル付けするために設計されたアルゴリズムである。
閉塞血管を同定するために,脳動脈のラベル付け機構を拡張した。
本稿では,そのモデルの全ノードにおける経路の反復的体系探索という一般的な概念を紹介し,新たな対話的特徴を実現する。
論文 参考訳(メタデータ) (2022-04-26T14:20:26Z) - Privileged Attribution Constrained Deep Networks for Facial Expression
Recognition [31.98044070620145]
顔の表情認識(FER)は、機械が人間の振る舞いをよりよく理解できるようにするため、多くの研究領域において重要である。
これらの問題を緩和するために、私たちはモデルに、目、口、まぶたなどの特定の顔領域に集中するよう指導する。
PAL(Privleged Attribution Loss)は,最も健康な顔領域に向けて,モデルの注意を向ける手法である。
論文 参考訳(メタデータ) (2022-03-24T07:49:33Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z) - Siamese Network Features for Endoscopy Image and Video Localization [0.0]
位置決めフレームは、異常な位置に関する貴重な情報を提供する。
本研究では,メタラーニングと深層学習を組み合わせることで,内視鏡画像とビデオの両方をローカライズする。
論文 参考訳(メタデータ) (2021-03-15T16:24:30Z) - Regional Attention Network (RAN) for Head Pose and Fine-grained Gesture
Recognition [9.131161856493486]
本研究では,CNN(Convolutional Neural Network) である RAN (End-to-end textbfRegional Attention Network) を提案する。
我々の領域は1つ以上の連続した細胞から構成されており、HOG(Histogram of Oriented Gradient)ディスクリプタの計算に使用される戦略に適応している。
提案手法は、異なる指標のかなりの差で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-01-17T10:14:28Z) - Deep Structured Prediction for Facial Landmark Detection [59.60946775628646]
本稿では,深層畳み込みネットワークと条件付きランダムフィールドを組み合わせた深層構造顔のランドマーク検出手法を提案する。
顔のランドマーク検出における最先端技術よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-10-18T17:09:24Z) - The Elements of End-to-end Deep Face Recognition: A Survey of Recent
Advances [56.432660252331495]
顔認識はコンピュータビジョンにおいて最も人気があり、長く続いたトピックの1つである。
ディープフェイス認識は目覚ましい進歩を遂げ、多くの現実世界のアプリケーションで広く利用されている。
本稿では,各要素の最近の進歩を概観する。
論文 参考訳(メタデータ) (2020-09-28T13:02:17Z) - Structured Landmark Detection via Topology-Adapting Deep Graph Learning [75.20602712947016]
解剖学的顔と医学的ランドマーク検出のための新しいトポロジ適応深層グラフ学習手法を提案する。
提案手法は局所像特徴と大域形状特徴の両方を利用するグラフ信号を構成する。
3つの公開顔画像データセット(WFLW、300W、COFW-68)と3つの現実世界のX線医学データセット(ケパロメトリ、ハンド、ペルビス)で実験を行った。
論文 参考訳(メタデータ) (2020-04-17T11:55:03Z) - Discovering Salient Anatomical Landmarks by Predicting Human Gaze [4.297988192695949]
医用画像中の解剖学的特徴を自動的に発見し,局所化する手法を提案する。
具体的には、人間の視覚的注意を引き付けるランドマークについて検討する。
得られたランドマークは, 胎児頭部長軸長の4.1%から10.9%の間で平均的なランドマークアライメント誤差を有するアフィン画像登録内で使用することができることを示す。
論文 参考訳(メタデータ) (2020-01-22T18:17:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。