論文の概要: Extreme Amodal Face Detection
- arxiv url: http://arxiv.org/abs/2510.06791v1
- Date: Wed, 08 Oct 2025 09:22:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.383924
- Title: Extreme Amodal Face Detection
- Title(参考訳): 極端アモーダル顔検出
- Authors: Changlin Song, Yunzhong Hou, Michael Randall Barnes, Rahul Shome, Dylan Campbell,
- Abstract要約: 本稿では,このクラスが安全性とプライバシに関するモチベーションの高いアプリケーションを提供するため,顔検出のサブプロブレムについて考察する。
画像からの文脈的手がかりを利用して、目に見えない顔の存在を推測する、より効率的でサンプルのないアプローチを提案する。
提案手法は, より効率のよい生成手法よりも優れており, 高い結果が得られる。
- 参考スコア(独自算出の注目度): 23.199259215551688
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Extreme amodal detection is the task of inferring the 2D location of objects that are not fully visible in the input image but are visible within an expanded field-of-view. This differs from amodal detection, where the object is partially visible within the input image, but is occluded. In this paper, we consider the sub-problem of face detection, since this class provides motivating applications involving safety and privacy, but do not tailor our method specifically to this class. Existing approaches rely on image sequences so that missing detections may be interpolated from surrounding frames or make use of generative models to sample possible completions. In contrast, we consider the single-image task and propose a more efficient, sample-free approach that makes use of the contextual cues from the image to infer the presence of unseen faces. We design a heatmap-based extreme amodal object detector that addresses the problem of efficiently predicting a lot (the out-of-frame region) from a little (the image) with a selective coarse-to-fine decoder. Our method establishes strong results for this new task, even outperforming less efficient generative approaches.
- Abstract(参考訳): 極端アモーダル検出(Extreme amodal detection)は、入力画像に完全に見えないが視野を広げて見える物体の2次元位置を推定するタスクである。
これは、オブジェクトが入力画像内で部分的に見えるが、隠蔽されているアモーダル検出とは異なる。
本稿では,このクラスが安全性とプライバシに関するモチベーションを生かしたアプリケーションを提供するため,顔検出のサブプロブレムを考えるが,このクラスに特化してメソッドをカスタマイズしない。
既存のアプローチは画像シーケンスに依存しており、検出の欠如を周囲のフレームから補間したり、生成モデルを使用して可能な完了をサンプリングすることができる。
対照的に、単一イメージタスクを考慮し、画像からの文脈的手がかりを利用して、目に見えない顔の存在を推測する、より効率的でサンプルのないアプローチを提案する。
熱マップに基づく極端アモーダル物体検出器を設計し、選択的な粗いデコーダを用いて、小さな(画像)からロット(枠外領域)を効率的に予測する問題に対処する。
提案手法は, より効率のよい生成手法よりも優れており, 高い結果が得られる。
関連論文リスト
- DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - Road Obstacle Detection based on Unknown Objectness Scores [0.0]
異常検出技術により、未知の物体の画素をオフ・オブ・ディストリビューション(OoD)サンプルとして識別することができる。
本研究の目的は,物体検出の手法を画素単位の異常検出手法に組み込むことで,未知物体を検出するための安定した性能を実現することである。
論文 参考訳(メタデータ) (2024-03-27T02:35:36Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - COMICS: End-to-end Bi-grained Contrastive Learning for Multi-face Forgery Detection [56.7599217711363]
顔偽造認識法は一度に1つの顔しか処理できない。
ほとんどの顔偽造認識法は一度に1つの顔しか処理できない。
マルチフェイスフォージェリ検出のためのエンドツーエンドフレームワークであるCOMICSを提案する。
論文 参考訳(メタデータ) (2023-08-03T03:37:13Z) - An End-to-End Approach for Seam Carving Detection using Deep Neural
Networks [0.0]
シーム・カービング(Seam Carving)は、画像形状ではなく、その内容に基づいて画像の縮小と拡大の両面を縮小する計算方法である。
本稿では,自動シーム彫刻検出の課題に対処するためのエンドツーエンドアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-05T12:53:55Z) - Hybrid Optimized Deep Convolution Neural Network based Learning Model
for Object Detection [0.0]
物体の識別はコンピュータビジョンにおける最も基本的で難しい問題の1つである。
近年,ディープラーニングに基づく物体検出技術が大衆の関心を集めている。
本研究では,自律型物体検出システムを構築するために,独自のディープラーニング分類手法を用いる。
提案するフレームワークは検出精度0.9864であり、現在の技術よりも高い。
論文 参考訳(メタデータ) (2022-03-02T04:39:37Z) - Detect and Locate: A Face Anti-Manipulation Approach with Semantic and
Noise-level Supervision [67.73180660609844]
本稿では,画像中の偽造顔を効率的に検出する,概念的にシンプルだが効果的な方法を提案する。
提案手法は,画像に関する意味の高い意味情報を提供するセグメンテーションマップに依存する。
提案モデルでは,最先端検出精度と顕著なローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2021-07-13T02:59:31Z) - Addressing Visual Search in Open and Closed Set Settings [8.928169373673777]
低解像度ギスト画像から画素レベルのオブジェクト性を予測する手法を提案する。
次に,高分解能で局所的にオブジェクト検出を行う領域を選択する。
第二に、未確認の可能性のある対象クラスの全てのインスタンスを探索するオープンセットビジュアルサーチの新しい手法を提案する。
論文 参考訳(メタデータ) (2020-12-11T17:21:28Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。