論文の概要: Active Gaze Control for Foveal Scene Exploration
- arxiv url: http://arxiv.org/abs/2208.11594v1
- Date: Wed, 24 Aug 2022 14:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:34:34.335882
- Title: Active Gaze Control for Foveal Scene Exploration
- Title(参考訳): 映像探索のためのアクティブ・ゲイズ制御
- Authors: Alexandre M.F. Dias, Lu\'is Sim\~oes, Plinio Moreno, Alexandre
Bernardino
- Abstract要約: 本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
- 参考スコア(独自算出の注目度): 124.11737060344052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active perception and foveal vision are the foundations of the human visual
system. While foveal vision reduces the amount of information to process during
a gaze fixation, active perception will change the gaze direction to the most
promising parts of the visual field. We propose a methodology to emulate how
humans and robots with foveal cameras would explore a scene, identifying the
objects present in their surroundings with in least number of gaze shifts. Our
approach is based on three key methods. First, we take an off-the-shelf deep
object detector, pre-trained on a large dataset of regular images, and
calibrate the classification outputs to the case of foveated images. Second, a
body-centered semantic map, encoding the objects classifications and
corresponding uncertainties, is sequentially updated with the calibrated
detections, considering several data fusion techniques. Third, the next best
gaze fixation point is determined based on information-theoretic metrics that
aim at minimizing the overall expected uncertainty of the semantic map. When
compared to the random selection of next gaze shifts, the proposed method
achieves an increase in detection F1-score of 2-3 percentage points for the
same number of gaze shifts and reduces to one third the number of required gaze
shifts to attain similar performance.
- Abstract(参考訳): 能動的知覚とfoveal visionは、人間の視覚システムの基礎である。
眼球視は視線固定時に処理する情報量を減少させるが、能動的知覚は視線方向を視野の最も有望な部分に変化させる。
本研究では,人間やロボットに焦点カメラを装着して場面を探索する方法をエミュレートし,その周囲に存在する物体を視線シフトの少ない範囲で識別する手法を提案する。
我々のアプローチは3つの重要な方法に基づいている。
まず,市販の深部物体検出器を用いて,正規画像の大規模データセット上で事前学習を行い,その分類出力を焦点画像の場合に校正する。
第二に、オブジェクト分類とそれに対応する不確かさを符号化する体中心セマンティックマップを、複数のデータ融合技術を考慮して、校正検出とともに順次更新する。
第3に、次の最良の視線固定点は、セマンティックマップの期待される不確実性全体の最小化を目的とした情報理論的な指標に基づいて決定される。
提案手法は,次の視線シフトのランダム選択と比較すると,同じ視線シフト数に対して2~3ポイントのF1スコアが増加し,必要な視線シフト数を3分の1に減らし,同様の性能を実現する。
関連論文リスト
- View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Learning to search for and detect objects in foveal images using deep
learning [3.655021726150368]
本研究では,画像中のクラスを探索する人間の客観的な注意をエミュレートする固定予測モデルを用いる。
そして、各固定点のフェーブされた画像を分類して、シーンにターゲットが存在するか否かを判定する。
本稿では,2つのタスク間の知識伝達を可能とし,修正予測と検出を同時に行うことができる新しいデュアルタスクモデルを提案する。
論文 参考訳(メタデータ) (2023-04-12T09:50:25Z) - Self-Calibrating Anomaly and Change Detection for Autonomous Inspection
Robots [0.07366405857677225]
視覚異常または変化検出アルゴリズムは、参照画像やデータセットとは異なる画像の領域を特定する。
本研究では,事前の未知環境における異常や変化を検出するための総合的なディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-26T09:52:12Z) - Improving saliency models' predictions of the next fixation with humans'
intrinsic cost of gaze shifts [6.315366433343492]
我々は,次の視線目標を予測し,視線に対する人的コストを実証的に測定するための原則的枠組みを開発する。
我々は、人間の視線嗜好の実装を提供する。これは、人間の次の視線目標に対する任意の正当性モデルの予測を改善するために使用できる。
論文 参考訳(メタデータ) (2022-07-09T11:21:13Z) - PANet: Perspective-Aware Network with Dynamic Receptive Fields and
Self-Distilling Supervision for Crowd Counting [63.84828478688975]
本稿では,視点問題に対処するため,PANetと呼ばれる新しい視点認識手法を提案する。
対象物のサイズが視点効果によって1つの画像で大きく変化するという観測に基づいて,動的受容場(DRF)フレームワークを提案する。
このフレームワークは、入力画像に応じて拡張畳み込みパラメータによって受容野を調整することができ、モデルが各局所領域についてより識別的な特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-10-31T04:43:05Z) - City-scale Scene Change Detection using Point Clouds [71.73273007900717]
2つの異なる時間にカメラを設置して撮影した画像を用いて都市の構造変化を検出する手法を提案する。
変化検出のための2点雲の直接比較は、不正確な位置情報のため理想的ではない。
この問題を回避するために,ポイントクラウド上での深層学習に基づく非厳密な登録を提案する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2021-03-26T08:04:13Z) - LNSMM: Eye Gaze Estimation With Local Network Share Multiview Multitask [7.065909514483728]
本稿では,視線点と視線方向を同時に推定する新しい手法を提案する。
本手法は,視線点と視線方向の2つの指標について,現在主流の手法であることを示す。
論文 参考訳(メタデータ) (2021-01-18T15:14:24Z) - Boosting Image-based Mutual Gaze Detection using Pseudo 3D Gaze [19.10872208787867]
相互視線検出は、人間の相互作用を理解する上で重要な役割を果たす。
本稿では,訓練期間中に補助的な3D視線推定タスクを用いて,性能向上のための簡易かつ効果的な手法を提案する。
相互の視線ラベルから推定される擬似3次元視線ラベルを用いて、3次元視線推定枝を訓練することにより、追加の表示コストなしで性能向上を実現する。
論文 参考訳(メタデータ) (2020-10-15T15:01:41Z) - A Self-Training Approach for Point-Supervised Object Detection and
Counting in Crowds [54.73161039445703]
本稿では,ポイントレベルのアノテーションのみを用いて訓練された典型的なオブジェクト検出を可能にする,新たな自己学習手法を提案する。
トレーニング中、利用可能なポイントアノテーションを使用して、オブジェクトの中心点の推定を監督する。
実験の結果,本手法は検出タスクとカウントタスクの両方において,最先端のポイント管理手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-25T02:14:42Z) - Towards High Performance Human Keypoint Detection [87.1034745775229]
文脈情報は人体構成や見えないキーポイントを推論する上で重要な役割を担っている。
そこで我々は,空間とチャネルのコンテキスト情報を効率的に統合するカスケードコンテキストミキサー(CCM)を提案する。
CCMの表現能力を最大化するために、我々は、強陰性な人検出マイニング戦略と共同訓練戦略を開発する。
検出精度を向上させるために,キーポイント予測を後処理するためのいくつかのサブピクセル改良手法を提案する。
論文 参考訳(メタデータ) (2020-02-03T02:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。