論文の概要: Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images
- arxiv url: http://arxiv.org/abs/2103.15307v1
- Date: Mon, 29 Mar 2021 03:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 05:14:08.037207
- Title: Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images
- Title(参考訳): onfocus detection: 無拘束画像から個々のカメラのアイコンタクトを識別する
- Authors: Dingwen Zhang, Bo Wang, Gerong Wang, Qiang Zhang, Jiajia Zhang,
Jungong Han, Zheng You
- Abstract要約: Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
OnFocus Detection In the Wild (OFDIW) と呼ばれる大規模なオンフォーカス検出データセットを構築しました。
本研究では,視線干渉推論ネットワーク (ECIIN) を用いた眼球深度検出モデルを提案する。
- 参考スコア(独自算出の注目度): 81.64699115587167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Onfocus detection aims at identifying whether the focus of the individual
captured by a camera is on the camera or not. Based on the behavioral research,
the focus of an individual during face-to-camera communication leads to a
special type of eye contact, i.e., the individual-camera eye contact, which is
a powerful signal in social communication and plays a crucial role in
recognizing irregular individual status (e.g., lying or suffering mental
disease) and special purposes (e.g., seeking help or attracting fans). Thus,
developing effective onfocus detection algorithms is of significance for
assisting the criminal investigation, disease discovery, and social behavior
analysis. However, the review of the literature shows that very few efforts
have been made toward the development of onfocus detector due to the lack of
large-scale public available datasets as well as the challenging nature of this
task. To this end, this paper engages in the onfocus detection research by
addressing the above two issues. Firstly, we build a large-scale onfocus
detection dataset, named as the OnFocus Detection In the Wild (OFDIW). It
consists of 20,623 images in unconstrained capture conditions (thus called ``in
the wild'') and contains individuals with diverse emotions, ages, facial
characteristics, and rich interactions with surrounding objects and background
scenes. On top of that, we propose a novel end-to-end deep model, i.e., the
eye-context interaction inferring network (ECIIN), for onfocus detection, which
explores eye-context interaction via dynamic capsule routing. Finally,
comprehensive experiments are conducted on the proposed OFDIW dataset to
benchmark the existing learning models and demonstrate the effectiveness of the
proposed ECIIN. The project (containing both datasets and codes) is at
https://github.com/wintercho/focus.
- Abstract(参考訳): Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
行動研究に基づいて、対面カメラコミュニケーション中の個人の焦点は、特別なタイプのアイコンタクト、すなわち、社会的コミュニケーションにおいて強力なシグナルであり、不規則な個人状態(例えば、嘘や精神疾患)と特別な目的(例えば、助けを求めるか、ファンを引き付けること)を認識する上で重要な役割を果たす個々のカメラアイコンタクトにつながる。
したがって, 効果的なオンフォーカス検出アルゴリズムの開発は, 刑事捜査, 疾病発見, 社会行動分析の補助に重要である。
しかし,本論文のレビューでは,大規模データセットの欠如や課題的な課題により,オンフォーカス検出器の開発に向けた取り組みがほとんど行われていないことが示されている。
そこで本稿では,上記の2つの課題に対処して,オンフォーカス検出研究を行う。
まず,OFDIW(OnFocus Detection In the Wild)と呼ばれる大規模オンフォーカス検出データセットを構築した。
20,623枚の画像からなり、周囲の感情、年齢、顔の特徴、周囲の物体や背景のシーンとの豊かな相互作用を含む。
さらに, 動的カプセルルーティングによる視線-コンテキストインタラクションを探索するオンフォーカス検出のための, エンド・ツー・エンドの深層モデルであるeciin(eye-context interaction inferring network)を提案する。
最後に,提案するofdiwデータセットを用いて,既存の学習モデルのベンチマークを行い,eciinの有効性を実証する総合実験を行った。
プロジェクト(データセットとコードの両方を含む)はhttps://github.com/wintercho/focusにある。
関連論文リスト
- A Review of Human-Object Interaction Detection [6.1941885271010175]
ヒトと物体の相互作用(HOI)の検出は、高レベルの視覚的理解において重要な役割を果たす。
本稿では,画像に基づくHOI検出における最近の研究を体系的に要約し,考察する。
論文 参考訳(メタデータ) (2024-08-20T08:32:39Z) - Exploring Predicate Visual Context in Detecting Human-Object
Interactions [44.937383506126274]
クロスアテンションによる画像特徴の再導入について検討する。
PViCはHICO-DETおよびV-COCOベンチマークにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-08-11T15:57:45Z) - Self-supervised Interest Point Detection and Description for Fisheye and
Perspective Images [7.451395029642832]
キーポイント検出とマッチングは多くのコンピュータビジョンにおける基本的な課題である。
本研究では,画像取得に使用されるカメラの形状が原因で発生する場合に焦点をあてる。
我々は最先端のアプローチを構築し、関心点検出器と記述子ネットワークのトレーニングを可能にする自己監督的な手順を導出する。
論文 参考訳(メタデータ) (2023-06-02T22:39:33Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Defocus Blur Detection via Salient Region Detection Prior [11.5253648614748]
Defocus blur Detectionは、写真のアウト・オブ・フォーカスとディープ・オブ・フィールドの領域を分離することを目的としている。
本稿では,デフォーカスブラー検出のための新しいネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-19T05:56:11Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。