論文の概要: Don't Look at the Camera: Achieving Perceived Eye Contact
- arxiv url: http://arxiv.org/abs/2404.17104v1
- Date: Fri, 26 Apr 2024 01:39:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:14:08.135079
- Title: Don't Look at the Camera: Achieving Perceived Eye Contact
- Title(参考訳): カメラは見ないで! 視線を感知する
- Authors: Alice Gao, Samyukta Jayakumar, Marcello Maniglia, Brian Curless, Ira Kemelmacher-Shlizerman, Aaron R. Seitz, Steven M. Seitz,
- Abstract要約: 本研究では、被写体をカメラで捉えて2Dディスプレイに映し出す際に、眼球接触の知覚をいかに最大限に達成するかという課題について考察する。
カメラで撮影された1つの被写体について、従来の知恵は、カメラを直接見て眼球に接触すると教えてくれる。
代わりに、カメラレンズのすぐ下を見ることが好ましいことを示す。
- 参考スコア(独自算出の注目度): 17.699948517543213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the question of how to best achieve the perception of eye contact when a person is captured by camera and then rendered on a 2D display. For single subjects photographed by a camera, conventional wisdom tells us that looking directly into the camera achieves eye contact. Through empirical user studies, we show that it is instead preferable to {\em look just below the camera lens}. We quantitatively assess where subjects should direct their gaze relative to a camera lens to optimize the perception that they are making eye contact.
- Abstract(参考訳): 本研究では、被写体をカメラで捉えて2Dディスプレイに映し出す際に、眼球接触の知覚をいかに最大限に達成するかという課題について考察する。
カメラで撮影された1つの被写体について、従来の知恵は、カメラを直接見て眼球に接触すると教えてくれる。
経験的ユーザスタディを通じて、カメラレンズのすぐ下を見ることが好ましいことを示す。
被験者は視線をカメラレンズと比較して視線を向けるべきかを定量的に評価し、視線接触の知覚を最適化する。
関連論文リスト
- ChatCam: Empowering Camera Control through Conversational AI [67.31920821192323]
ChatCamは、ユーザーとの会話を通じてカメラの動きをナビゲートするシステムである。
そこで本研究では,テキスト条件付きカメラ軌道生成のためのGPTに基づく自己回帰モデルであるCineGPTを提案する。
また、正確なカメラ軌道配置を保証するアンカー決定器も開発した。
論文 参考訳(メタデータ) (2024-09-25T20:13:41Z) - Selfie Taking with Facial Expression Recognition Using Omni-directional Camera [0.0]
そこで本研究では,全方向カメラを用いて複数人で自撮りを行う手法を提案する。
具体的には、全方向カメラで数秒のビデオを撮り、その後すべてのフレームで顔検出を行う。
提案手法は, すべてのフレームで表情認識を行い, 参加者が最も幸福なフレームを抽出する。
論文 参考訳(メタデータ) (2024-05-25T01:07:29Z) - Real-Time Simulated Avatar from Head-Mounted Sensors [70.41580295721525]
我々はAR/VRヘッドセットから得られた情報(ヘッドセットポーズとカメラ)からシミュレーションアバターを制御するSimXRを提案する。
カメラでヘッドセットのポーズを合成するために、人型ロボットを制御してヘッドセットの動きをトラッキングし、入力画像を分析して身体の動きを決定する。
体の一部が見えると、手足の動きは画像によって案内され、見えない場合は物理法則が制御器を誘導して可塑性運動を発生させる。
論文 参考訳(メタデータ) (2024-03-11T16:15:51Z) - Seeing the World through Your Eyes [6.251387181667429]
人間の目の反射的な性質は、私たちの周りの世界がどのように見えるかという、未熟な情報源です。
本稿では,眼の反射を含むポートレート画像を用いて,カメラの視線を越えて3次元シーンを再構成する。
論文 参考訳(メタデータ) (2023-06-15T17:59:59Z) - Learning Video-independent Eye Contact Segmentation from In-the-Wild
Videos [18.373736201140026]
本研究では,野生の映像における片方向眼球接触検出の課題に対処する。
私たちのゴールは、任意の入力ビデオの中で、人が視線ターゲットを見ていることを識別できる統一モデルを構築することです。
ラベル付きトレーニングデータの不足により、ラベルなしビデオの擬似ラベルを生成するための視線目標探索法を提案する。
論文 参考訳(メタデータ) (2022-10-05T05:46:40Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - MutualEyeContact: A conversation analysis tool with focus on eye contact [69.17395873398196]
MutualEyeContactは、社会的相互作用における(相互)アイコンタクトの重要性を理解するのに役立つ。
我々は、最先端の視線追跡と機械学習に基づく顔認識を組み合わせるとともに、ソーシャルインタラクションセッションの分析と可視化のためのツールを提供する。
論文 参考訳(メタデータ) (2021-07-09T15:05:53Z) - Egocentric Videoconferencing [86.88092499544706]
ビデオ会議は、価値ある非言語コミュニケーションと表情の手がかりを描写するが、通常は前面カメラを必要とする。
本稿では、スマートグラスに統合可能な低コストのウェアラブルエゴセントリックカメラセットを提案する。
私たちのゴールは、古典的なビデオ通話を模倣することであり、それゆえ、私たちはこのカメラの自我中心の視点を前向きのビデオに変えます。
論文 参考訳(メタデータ) (2021-07-07T09:49:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。