論文の概要: Pedestrian Detection by Exemplar-Guided Contrastive Learning
- arxiv url: http://arxiv.org/abs/2111.08974v1
- Date: Wed, 17 Nov 2021 08:34:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 14:41:07.192794
- Title: Pedestrian Detection by Exemplar-Guided Contrastive Learning
- Title(参考訳): exemplar-guided contrastive learning による歩行者検出
- Authors: Zebin Lin, Wenjie Pei, Fanglin Chen, David Zhang, and Guangming Lu
- Abstract要約: 本研究では,多様な外観特徴を持つ歩行者の特徴学習を指導するコントラスト学習を提案する。
提案手法は,歩行者に代表される外観を事前知識として構築し,効果的なコントラッシブなトレーニングペアを構築する。
夜間および夜間の歩行者検出実験により,提案手法の有効性が検証された。
- 参考スコア(独自算出の注目度): 34.23260020137835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typical methods for pedestrian detection focus on either tackling mutual
occlusions between crowded pedestrians, or dealing with the various scales of
pedestrians. Detecting pedestrians with substantial appearance diversities such
as different pedestrian silhouettes, different viewpoints or different
dressing, remains a crucial challenge. Instead of learning each of these
diverse pedestrian appearance features individually as most existing methods
do, we propose to perform contrastive learning to guide the feature learning in
such a way that the semantic distance between pedestrians with different
appearances in the learned feature space is minimized to eliminate the
appearance diversities, whilst the distance between pedestrians and background
is maximized. To facilitate the efficiency and effectiveness of contrastive
learning, we construct an exemplar dictionary with representative pedestrian
appearances as prior knowledge to construct effective contrastive training
pairs and thus guide contrastive learning. Besides, the constructed exemplar
dictionary is further leveraged to evaluate the quality of pedestrian proposals
during inference by measuring the semantic distance between the proposal and
the exemplar dictionary. Extensive experiments on both daytime and nighttime
pedestrian detection validate the effectiveness of the proposed method.
- Abstract(参考訳): 歩行者検出の典型的な方法は、混み合った歩行者間の相互閉塞に取り組むか、歩行者の様々な規模を扱うかである。
異なる歩行者シルエット、異なる視点、異なるドレッシングなどの外観の多様性を持つ歩行者の検出は、重要な課題である。
提案手法では,これらの多様な歩行者の外観特徴を個別に学習する代わりに,学習した特徴空間に異なる外観を持つ歩行者間の意味的距離を最小化して外観の多様性を排除し,歩行者と背景の間の距離を最大化するように,特徴学習の指導を行う。
コントラスト学習の効率性と有効性を高めるために,先行知識として,歩行者を代表とする例題辞書を構築し,効果的なコントラスト学習ペアを構築し,コントラスト学習を指導する。
さらに、構築した例示辞書を利用して、提案と例示辞書のセマンティック距離を測定することにより、推論中の歩行者提案の質を評価する。
昼と夜の両方の歩行者検出実験により,提案手法の有効性が検証された。
関連論文リスト
- Robust Pedestrian Detection via Constructing Versatile Pedestrian Knowledge Bank [51.66174565170112]
本稿では,多目的な歩行者知識銀行を構築するための新しいアプローチを提案する。
我々は大規模な事前訓練モデルから歩行者の知識を抽出する。
次に、ほとんどの代表的特徴を定量化し、背景のシーンと区別できるように指導することで、それらをキュレートする。
論文 参考訳(メタデータ) (2024-04-30T07:01:05Z) - DenoSent: A Denoising Objective for Self-Supervised Sentence
Representation Learning [59.4644086610381]
本稿では,他の視点,すなわち文内視点から継承する新たな認知的目的を提案する。
離散ノイズと連続ノイズの両方を導入することで、ノイズの多い文を生成し、モデルを元の形式に復元するように訓練する。
我々の経験的評価は,本手法が意味的テキスト類似性(STS)と幅広い伝達タスクの両面で競合する結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:48:45Z) - Integrating Language-Derived Appearance Elements with Visual Cues in Pedestrian Detection [51.66174565170112]
本研究では,大言語モデルの強みを文脈的外見の変化の理解に活用するための新しいアプローチを提案する。
本稿では,言語由来の外観要素を定式化し,歩行者検出に視覚的手がかりを取り入れることを提案する。
論文 参考訳(メタデータ) (2023-11-02T06:38:19Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - VLPD: Context-Aware Pedestrian Detection via Vision-Language Semantic
Self-Supervision [13.268399018823903]
本稿では,コンテキスト認識型歩行者検出のためのビジョン・ランゲージ・セマンティック・セルフスーパービジョンによる新しいアプローチを提案する。
まず、完全教師付き歩行者検出と文脈分割の両方を学習する自己教師型視覚言語セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS)セマンティック(VLS
第2に,歩行者等を識別しやすくするために,自己指導型プロトタイプ・セマンティック・コントラスト学習法を提案する。
論文 参考訳(メタデータ) (2023-04-06T15:16:29Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Masked Contrastive Learning for Anomaly Detection [10.499890749386676]
マスク型コントラスト学習という,タスク固有のコントラスト学習のバリエーションを提案する。
また,自己アンサンブル推論と呼ばれる新しい推論手法を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:27:02Z) - Imitation Learning with Sinkhorn Distances [12.161649672131286]
本研究では, 占領対策間のシンクホーン距離の最小化として, 模倣学習を定式化して, トラクタブルソリューションを提案する。
提案手法は,多くの MuJoCo 実験において,報奨距離とシンクホーン距離距離の両方を用いて評価する。
論文 参考訳(メタデータ) (2020-08-20T19:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。