論文の概要: MutualEyeContact: A conversation analysis tool with focus on eye contact
- arxiv url: http://arxiv.org/abs/2107.04476v1
- Date: Fri, 9 Jul 2021 15:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:46:34.928358
- Title: MutualEyeContact: A conversation analysis tool with focus on eye contact
- Title(参考訳): mutualeyecontact:アイコンタクトに焦点を当てた会話分析ツール
- Authors: Alexander Sch\"afer, Tomoko Isomura, Gerd Reis, Katsumi Watanabe,
Didier Stricker
- Abstract要約: MutualEyeContactは、社会的相互作用における(相互)アイコンタクトの重要性を理解するのに役立つ。
我々は、最先端の視線追跡と機械学習に基づく顔認識を組み合わせるとともに、ソーシャルインタラクションセッションの分析と可視化のためのツールを提供する。
- 参考スコア(独自算出の注目度): 69.17395873398196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eye contact between individuals is particularly important for understanding
human behaviour. To further investigate the importance of eye contact in social
interactions, portable eye tracking technology seems to be a natural choice.
However, the analysis of available data can become quite complex. Scientists
need data that is calculated quickly and accurately. Additionally, the relevant
data must be automatically separated to save time. In this work, we propose a
tool called MutualEyeContact which excels in those tasks and can help
scientists to understand the importance of (mutual) eye contact in social
interactions. We combine state-of-the-art eye tracking with face recognition
based on machine learning and provide a tool for analysis and visualization of
social interaction sessions. This work is a joint collaboration of computer
scientists and cognitive scientists. It combines the fields of social and
behavioural science with computer vision and deep learning.
- Abstract(参考訳): 個人間の目の接触は、人間の行動を理解する上で特に重要である。
社会的相互作用におけるアイコンタクトの重要性をさらに調査するため,携帯型アイトラッキング技術は自然選択であると考えられる。
しかし、利用可能なデータの分析は非常に複雑になる可能性がある。
科学者は素早く正確に計算されるデータが必要です。
さらに、関連するデータを自動的に分離して保存しなければなりません。
本研究では,これらの課題に優れた相互接触ツールを提案し,相互接触の重要性を科学者に理解させる。
最先端のアイトラッキングと機械学習に基づく顔認識を組み合わせることで,ソーシャルインタラクションセッションの分析と可視化を行うツールを提供する。
この研究はコンピュータ科学者と認知科学者の共同研究である。
社会科学と行動科学の分野とコンピュータビジョンとディープラーニングを組み合わせる。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Multi-person eye tracking for real-world scene perception in social settings [34.82692226532414]
モバイルアイトラッキングを実世界のマルチパーソン・セットアップに適用し、同期データをストリームし、記録し、分析するシステムを開発する。
本システムは,挑戦的な動的シーンにおける正確な時間同期と正確な視線投影を実現する。
この進歩は、協調行動、グループダイナミクス、社会的相互作用に関する洞察を、高い生態学的妥当性で得る。
論文 参考訳(メタデータ) (2024-07-08T19:33:17Z) - Maia: A Real-time Non-Verbal Chat for Human-AI Interaction [11.558827428811385]
本稿では,顔の表情と頭部の動きを反映したテキストチャットの代替案を提案する。
私たちのゴールは、表情やその他の非言語的手がかりをリアルタイムで追跡し分析し、この情報を使って人間の振る舞いを予測し理解するモデルを構築することです。
論文 参考訳(メタデータ) (2024-02-09T13:07:22Z) - NITEC: Versatile Hand-Annotated Eye Contact Dataset for Ego-Vision
Interaction [2.594420805049218]
我々は,手書きのアイコンタクト・データセットであるNITECについて述べる。
NITECは、エゴビジョンのアイコンタクトのための既存のデータセットを、サイズや様々な人口動態、社会的文脈、照明条件で超越している。
我々は、エゴビジョンインタラクションの分野におけるさらなる探索を促進するために、データセットを一般公開する。
論文 参考訳(メタデータ) (2023-11-08T07:42:31Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - Can machines learn to see without visual databases? [93.73109506642112]
本稿では,視覚的データベースを扱わずに視界を学習するマシンの開発に焦点をあてる。
これは、ビジョンのためのディープラーニング技術に関する真に競争の激しい道を開くかもしれない。
論文 参考訳(メタデータ) (2021-10-12T13:03:54Z) - Automated analysis of eye-tracker-based human-human interaction studies [2.433293618209319]
本稿では,移動眼球追跡データの自動解析に最先端のコンピュータビジョンアルゴリズムが用いられているかを検討する。
本稿では,人間の対面インタラクションにおける移動眼球追跡記録に焦点をあてる。
この単一パイプラインフレームワークを使用することで、現場での作業よりも正確かつ高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-09T10:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。