論文の概要: Parameterized Prompt for Incremental Object Detection
- arxiv url: http://arxiv.org/abs/2510.27316v2
- Date: Tue, 04 Nov 2025 06:13:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 14:27:17.385635
- Title: Parameterized Prompt for Incremental Object Detection
- Title(参考訳): インクリメンタルオブジェクト検出のためのパラメータ化プロンプト
- Authors: Zijia An, Boyu Diao, Ruiqi Liu, Libo Huang, Chuanguang Yang, Fei Wang, Zhulin An, Yongjun Xu,
- Abstract要約: 既存のプロンプト プールベースのアプローチは、インクリメンタルタスクにまたがる不整合クラスセットを前提とします。
共起シナリオでは、以前のタスクからラベル付けされていないオブジェクトが現在のタスクイメージに表示され、プロンプトプールが混乱する可能性がある。
本稿では,タスク間の適応的な整合性を示すために,破滅的な忘れを抑えるために,制約のある更新を施す必要があることを留意する。
- 参考スコア(独自算出の注目度): 40.077943384096805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have demonstrated that incorporating trainable prompts into pretrained models enables effective incremental learning. However, the application of prompts in incremental object detection (IOD) remains underexplored. Existing prompts pool based approaches assume disjoint class sets across incremental tasks, which are unsuitable for IOD as they overlook the inherent co-occurrence phenomenon in detection images. In co-occurring scenarios, unlabeled objects from previous tasks may appear in current task images, leading to confusion in prompts pool. In this paper, we hold that prompt structures should exhibit adaptive consolidation properties across tasks, with constrained updates to prevent catastrophic forgetting. Motivated by this, we introduce Parameterized Prompts for Incremental Object Detection (P$^2$IOD). Leveraging neural networks global evolution properties, P$^2$IOD employs networks as the parameterized prompts to adaptively consolidate knowledge across tasks. To constrain prompts structure updates, P$^2$IOD further engages a parameterized prompts fusion strategy. Extensive experiments on PASCAL VOC2007 and MS COCO datasets demonstrate that P$^2$IOD's effectiveness in IOD and achieves the state-of-the-art performance among existing baselines.
- Abstract(参考訳): 近年の研究では、トレーニング可能なプロンプトを事前学習モデルに組み込むことで、効果的なインクリメンタルラーニングが可能になることが示されている。
しかし、インクリメンタルオブジェクト検出(IOD)におけるプロンプトの応用はいまだ検討されていない。
既存のプロンプトベースのアプローチは、インクリメンタルなタスクにまたがる不整合クラスセットを仮定するが、検出画像に固有の共起現象を見落としているため、IODには不適である。
共起シナリオでは、以前のタスクからラベル付けされていないオブジェクトが現在のタスクイメージに表示され、プロンプトプールが混乱する可能性がある。
本稿では,タスク間の適応的な整合性を示すために,破滅的な忘れ込みを防止するために,制約のある更新を行う必要があることを留意する。
そこで本研究では,インクリメンタルオブジェクト検出のためのパラメータ化プロンプト(P$^2$IOD)を提案する。
ニューラルネットワークのグローバル進化特性を活用して、P$^2$IODは、タスク間で知識を適応的に統合するパラメータ化プロンプトとしてネットワークを利用する。
構造更新を制約するため、P$^2$IODはさらにパラメータ化されたプロンプト融合戦略に係わる。
PASCAL VOC2007とMS COCOデータセットの大規模な実験により、P$^2$IODの有効性が実証され、既存のベースライン間の最先端のパフォーマンスが達成された。
関連論文リスト
- BOTS: A Unified Framework for Bayesian Online Task Selection in LLM Reinforcement Finetuning [82.925106913459]
強化微調整(Reinforcement Finetuning, RFT)は、大規模言語モデル(LLM)を人間の嗜好と整合させ、推論を強化するための重要な手法である。
textbfBayesian textbfOnline textbfTask textbfSelection in LLM reinforcement finetuning。
論文 参考訳(メタデータ) (2025-10-30T11:15:23Z) - DSS-Prompt: Dynamic-Static Synergistic Prompting for Few-Shot Class-Incremental Learning [4.957021413601961]
DSS-Promptは、トレーニング済みのビジョントランスを最小限の修正で変換する、シンプルで効果的なアプローチである。
DSS-Promptの有効性を検証するため、4つのベンチマークで広範な実験を行った。
すべてのデータセットに対する既存のアプローチよりも優れたパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2025-08-13T13:10:18Z) - Seamless Detection: Unifying Salient Object Detection and Camouflaged Object Detection [73.85890512959861]
本稿では,SOD(Salient Object Detection)とCOD(Camouflaged Object Detection)を統合化するためのタスク非依存フレームワークを提案する。
我々は、間隔層と大域的コンテキストを含む単純で効果的なコンテキストデコーダを設計し、67fpsの推論速度を実現する。
公開SODデータセットとCODデータセットの実験は、教師なし設定と教師なし設定の両方において、提案したフレームワークの優位性を実証している。
論文 参考訳(メタデータ) (2024-12-22T03:25:43Z) - LW2G: Learning Whether to Grow for Prompt-based Continual Learning [55.552510632228326]
最近のPromptベースの連続学習は、事前訓練されたモデルで顕著な性能を達成した。
これらのアプローチは、学習中に新しいプロンプトセットを追加してプロンプトプールを拡張し、推論中に正しいセットを選択する。
従来,PCLの性能向上に課題を呈する課題として,タスク指向のプロンプトセットの個別化と選択精度の低さが指摘されてきた。
論文 参考訳(メタデータ) (2024-09-27T15:55:13Z) - PECTP: Parameter-Efficient Cross-Task Prompts for Incremental Vision Transformer [76.39111896665585]
インクリメンタルラーニング(IL)は、シーケンシャルタスクの深いモデルを継続的に学習することを目的としている。
近年の大規模事前訓練モデル (PTM) は, 従来の試料を含まない実用ILにおいて, 即時的手法により優れた性能を発揮している。
論文 参考訳(メタデータ) (2024-07-04T10:37:58Z) - DiPEx: Dispersing Prompt Expansion for Class-Agnostic Object Detection [45.56930979807214]
クラスに依存しないオブジェクト検出は、多くの下流の視覚タスクにおいて、基盤となるかボトルネックとなる可能性がある。
本研究では、視覚言語モデルを用いて、自己教師付きプロンプト学習戦略による物体検出を強化する。
我々は,MS-COCO および LVIS におけるDiPEx の有効性を,クラス依存型OD および OOD-OD 実験により実証した。
論文 参考訳(メタデータ) (2024-06-21T07:33:37Z) - TemPrompt: Multi-Task Prompt Learning for Temporal Relation Extraction in RAG-based Crowdsourcing Systems [21.312052922118585]
時間的関係抽出(TRE)は、出来事や行動の進化を把握し、関連するタスクのワークフローを形成することを目的としている。
本稿では,TRE(TemPrompt)のためのマルチタスク・プロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T01:52:37Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。