論文の概要: Selfie Taking with Facial Expression Recognition Using Omni-directional Camera
- arxiv url: http://arxiv.org/abs/2405.15996v1
- Date: Sat, 25 May 2024 01:07:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 01:39:22.731091
- Title: Selfie Taking with Facial Expression Recognition Using Omni-directional Camera
- Title(参考訳): Omni-directional Camera を用いた顔表情認識による自撮り
- Authors: Kazutaka Kiuchi, Shimpei Imamura, Norihiko Kawai,
- Abstract要約: そこで本研究では,全方向カメラを用いて複数人で自撮りを行う手法を提案する。
具体的には、全方向カメラで数秒のビデオを撮り、その後すべてのフレームで顔検出を行う。
提案手法は, すべてのフレームで表情認識を行い, 参加者が最も幸福なフレームを抽出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent studies have shown that visually impaired people have desires to take selfies in the same way as sighted people do to record their photos and share them with others. Although support applications using sound and vibration have been developed to help visually impaired people take selfies using smartphone cameras, it is still difficult to capture everyone in the angle of view, and it is also difficult to confirm that they all have good expressions in the photo. To mitigate these issues, we propose a method to take selfies with multiple people using an omni-directional camera. Specifically, a user takes a few seconds of video with an omni-directional camera, followed by face detection on all frames. The proposed method then eliminates false face detections and complements undetected ones considering the consistency across all frames. After performing facial expression recognition on all the frames, the proposed method finally extracts the frame in which the participants are happiest, and generates a perspective projection image in which all the participants are in the angle of view from the omni-directional frame. In experiments, we use several scenes with different number of people taken to demonstrate the effectiveness of the proposed method.
- Abstract(参考訳): 近年の研究では、視覚障害者が自撮りをしたいという願望は、視覚障害者が自分の写真を録画して他の人と共有するのと同じようにあることが示されている。
視覚障害者がスマートフォンカメラで自撮りを撮るのを支援するために、音と振動を用いた支援アプリケーションも開発されているが、視界で全員を捉えることは依然として困難であり、写真に良い表情があることの確認も困難である。
これらの問題を緩和するために,全方向カメラを用いて複数人で自撮りを行う手法を提案する。
具体的には、全方向カメラで数秒のビデオを撮り、その後すべてのフレームで顔検出を行う。
提案手法は,すべてのフレーム間の整合性を考慮した偽顔検出を除去し,未検出顔検出を補完する。
提案手法は, すべてのフレームに対して表情認識を行い, 参加者が最も幸福なフレームを抽出し, 全参加者が全方向のフレームから視認できる視点投影画像を生成する。
実験では,提案手法の有効性を示すために,異なる人数のシーンを用いて実験を行った。
関連論文リスト
- Two Deep Learning Solutions for Automatic Blurring of Faces in Videos [0.8287206589886879]
本稿では,監視ビデオにおける顔ぼやけ問題に対処するための,ディープラーニングに基づく2つの選択肢を提案する。
まず、顔を検出するために訓練された古典的な物体検出装置で構成され、その後、ぼやけている。
第二に、Unetのようなセグメンテーションネットワークを訓練して、すべての顔がぼやけた入力画像のバージョンを出力する間接的アプローチである。
論文 参考訳(メタデータ) (2024-09-23T08:59:44Z) - Real-Time Simulated Avatar from Head-Mounted Sensors [70.41580295721525]
我々はAR/VRヘッドセットから得られた情報(ヘッドセットポーズとカメラ)からシミュレーションアバターを制御するSimXRを提案する。
カメラでヘッドセットのポーズを合成するために、人型ロボットを制御してヘッドセットの動きをトラッキングし、入力画像を分析して身体の動きを決定する。
体の一部が見えると、手足の動きは画像によって案内され、見えない場合は物理法則が制御器を誘導して可塑性運動を発生させる。
論文 参考訳(メタデータ) (2024-03-11T16:15:51Z) - SecurePose: Automated Face Blurring and Human Movement Kinematics
Extraction from Videos Recorded in Clinical Settings [0.0]
顔のぼやけはビデオの識別を外すのに使えるが、このプロセスは手作業と時間を要することが多い。
我々はSecurePoseというオープンソースのソフトウェアを開発し、顔のぼかしと自動キネマティック抽出を両立させることができる。
SecurePoseは脳性麻痺児116例の外来診療で記録された歩行ビデオで検証された。
論文 参考訳(メタデータ) (2024-02-21T21:55:29Z) - Empowering Visually Impaired Individuals: A Novel Use of Apple Live
Photos and Android Motion Photos [3.66237529322911]
われわれは、Apple Live PhotosとAndroid Motion Photosの技術の使用を提唱している。
以上の結果から,Live PhotosとMotion Photosは,共通の視覚支援タスクにおいて,単フレーム画像よりも優れていた。
論文 参考訳(メタデータ) (2023-09-14T20:46:35Z) - People Tracking in Panoramic Video for Guiding Robots [2.092922495279074]
ガイドロボットは、おそらく未知の環境の特定の場所への移動を効果的に行うことを目的としている。
この操作の間、ロボットは、付随する人物を検出し、追跡し、彼女/彼の姿を見失おうとはしない。
360deg Field of View (FoV)は、あらゆるフレームオブジェクトがセンサーから外されたり、遠く離れていなければ、FoVを離れることができないことを保証します。
我々は、視線カメラ用に設計された標準的な人検出・追跡パイプラインであるパノラマビデオに効果的に適応できる一連の手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T16:44:38Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Real-Time Neural Character Rendering with Pose-Guided Multiplane Images [75.62730144924566]
リアルなシーンでアニマタブルなキャラクタをフォトリアリスティックな画質でレンダリングできるポーズ誘導多面体画像(MPI)合成を提案する。
我々は、移動物体の駆動信号とともに多視点画像をキャプチャするために、ポータブルカメラリグを使用します。
論文 参考訳(メタデータ) (2022-04-25T17:51:38Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Egocentric Videoconferencing [86.88092499544706]
ビデオ会議は、価値ある非言語コミュニケーションと表情の手がかりを描写するが、通常は前面カメラを必要とする。
本稿では、スマートグラスに統合可能な低コストのウェアラブルエゴセントリックカメラセットを提案する。
私たちのゴールは、古典的なビデオ通話を模倣することであり、それゆえ、私たちはこのカメラの自我中心の視点を前向きのビデオに変えます。
論文 参考訳(メタデータ) (2021-07-07T09:49:39Z) - From two rolling shutters to one global shutter [57.431998188805665]
我々は、ローリングシャッターの歪みを解き放つことができる驚くほどシンプルなカメラ構成を探索する。
このようなセットアップは簡単で安価であり、ローリングシャッター歪みを修正するのに必要な幾何学的制約を持っている。
一般および特殊運動の基底となる幾何学を記述した方程式を導出し、それらの解を見つけるための効率的な方法を提案する。
論文 参考訳(メタデータ) (2020-06-02T22:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。