論文の概要: PGTRNet: Two-phase Weakly Supervised Object Detection with Pseudo Ground
Truth Refining
- arxiv url: http://arxiv.org/abs/2108.11439v1
- Date: Wed, 25 Aug 2021 19:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 14:04:44.589150
- Title: PGTRNet: Two-phase Weakly Supervised Object Detection with Pseudo Ground
Truth Refining
- Title(参考訳): pgtrnet:疑似基底真理精錬による2相弱教師付き物体検出
- Authors: Jun Wang, Hefeng Zhou, Xiaohan Yu
- Abstract要約: 画像レベルのアノテーションだけで検知器を訓練することを目的とした弱い監視対象検出(WSOD)が注目されている。
現在の最先端のアプローチは、主に2段階のトレーニング戦略に従い、完全な教師付き検出器(FSD)と純粋なWSODモデルを統合する。
2相WSODアプローチの性能を阻害する主な問題は2つある。すなわち、不十分な学習問題と、WSODモデルによって生成されたFSDと擬似基底真理との厳密な依存である。
本稿では, 単純かつ効果的な手法である擬似基底真理改善ネットワーク(PGTRNet)を提案する。
- 参考スコア(独自算出の注目度): 10.262660606897974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly Supervised Object Detection (WSOD), aiming to train detectors with
only image-level annotations, has arisen increasing attention. Current
state-of-the-art approaches mainly follow a two-stage training strategy
whichintegrates a fully supervised detector (FSD) with a pure WSOD model. There
are two main problems hindering the performance of the two-phase WSOD
approaches, i.e., insufficient learning problem and strict reliance between the
FSD and the pseudo ground truth (PGT) generated by theWSOD model. This paper
proposes pseudo ground truth refinement network (PGTRNet), a simple yet
effective method without introducing any extra learnable parameters, to cope
with these problems. PGTRNet utilizes multiple bounding boxes to establish the
PGT, mitigating the insufficient learning problem. Besides, we propose a novel
online PGT refinement approach to steadily improve the quality of PGTby fully
taking advantage of the power of FSD during the second-phase training,
decoupling the first and second-phase models. Elaborate experiments are
conducted on the PASCAL VOC 2007 benchmark to verify the effectiveness of our
methods. Experimental results demonstrate that PGTRNet boosts the backbone
model by 2.074% mAP and achieves the state-of-the-art performance, showing the
significant potentials of the second-phase training.
- Abstract(参考訳): 画像レベルのアノテーションだけで検出器を訓練することを目的としたweakly supervised object detection(wsod)が注目されている。
現在の最先端のアプローチは、主に完全な教師付き検出器(fsd)と純粋なwsodモデルを統合する2段階のトレーニング戦略に従っている。
2相WSODアプローチの性能を阻害する主な問題は2つある。すなわち、不十分な学習問題と、WSODモデルによって生成されたFSDと擬似基底真理(PGT)との厳密な依存である。
本稿では,これらの問題に対処するために,学習可能なパラメータを導入することなく,単純かつ効果的な手法であるpseudo ground truthfine network (pgtrnet)を提案する。
PGTRNetは複数のバウンディングボックスを用いてPGTを確立することで、不十分な学習問題を軽減している。
さらに,第1相モデルと第2相モデルの分離により,第2相トレーニングにおけるFSDのパワーをフル活用し,PGTbyの品質を着実に向上させる新しいオンラインPGT改善手法を提案する。
本手法の有効性を検証するため,PASCAL VOC 2007ベンチマークを用いて実験を行った。
実験の結果,PGTRNetはバックボーンモデルを2.074%のmAPで向上し,2相トレーニングの有意な可能性を示唆した。
関連論文リスト
- The Surprising Effectiveness of Test-Time Training for Abstract Reasoning [64.36534512742736]
モデル推論能力向上のためのメカニズムとして,テストタイムトレーニング(TTT)の有効性を検討する。
TTTはARCタスクのパフォーマンスを大幅に改善し、ベースとなる微調整モデルと比較して最大6倍の精度向上を実現した。
本研究は,ニューラルネットワークモデルにおける抽象的推論改善の道筋として,明示的な記号探索が唯一の道ではないことを示唆している。
論文 参考訳(メタデータ) (2024-11-11T18:59:45Z) - Bi-TTA: Bidirectional Test-Time Adapter for Remote Physiological Measurement [25.11883761217408]
リモート光胸腺撮影(r)は、カメラのみを用いて生理的信号を監視する非侵襲的アプローチとして注目されている。
約束にもかかわらず、新しいドメインへのrモデルの適応性は、生理的信号の環境感受性のために妨げられている。
Bi-TTA(Bidirectional Test-Time Adapter)フレームワークについて紹介する。
論文 参考訳(メタデータ) (2024-09-25T19:55:20Z) - ACTRESS: Active Retraining for Semi-supervised Visual Grounding [52.08834188447851]
前回の研究であるRefTeacherは、疑似自信と注意に基づく監督を提供するために教師学生の枠組みを採用することで、この課題に取り組むための最初の試みである。
このアプローチは、Transformerベースのパイプラインに従う現在の最先端のビジュアルグラウンドモデルと互換性がない。
本稿では, ACTRESS を略したセミスーパービジョン視覚グラウンドのためのアクティブ・リトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-03T16:33:31Z) - Efficient Deep Reinforcement Learning Requires Regulating Overfitting [91.88004732618381]
本稿では,高時間差(TD)誤差が深部RLアルゴリズムの性能に悪影響を及ぼす主要な原因であることを示す。
検証TDエラーをターゲットとした簡単なオンラインモデル選択法は,状態ベースDMCおよびGymタスク間で有効であることを示す。
論文 参考訳(メタデータ) (2023-04-20T17:11:05Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Reinforcement Learning from Demonstrations by Novel Interactive Expert
and Application to Automatic Berthing Control Systems for Unmanned Surface
Vessel [12.453219390225428]
RLfD(Reinforcement Learning from Demonstration)の2つの新しい実践的手法を開発し,無人表面容器の自動バーシング制御システムに適用した。
The new expert data generation method, called Model Predictive Based Expert (MPBE) was developed to provide high quality supervision data for RLfD algorithm。
また,MP-DDPGに基づく新たなRLfDアルゴリズムであるSelf-Guided Actor-Critic (SGAC)が存在する。
論文 参考訳(メタデータ) (2022-02-23T06:45:59Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Two-phase weakly supervised object detection with pseudo ground truth
mining [8.227822364332814]
画像レベルのデータセットのみを用いて検出器を訓練することを目的としたweakly supervised object detection (wsod) が研究者の注目を集めている。
本プロジェクトでは,強力な検出器と純粋なwsodモデルを統合する2相wsodアーキテクチャに焦点を当てる。
2相WSODにおける第2相検出器として用いられる代表検出器の有効性について検討し,2相WSODアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-04-01T03:21:24Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Two-stage Deep Reinforcement Learning for Inverter-based Volt-VAR
Control in Active Distribution Networks [3.260913246106564]
本稿では,インバータを用いたエネルギー資源の制御により,電圧分布を改善するための2段階深部強化学習法を提案する。
オフライン段階では、モデルミスマッチに頑健なオフラインエージェントを訓練するために、高い効率の対向強化学習アルゴリズムが開発された。
連続的なオンライン段階において、オフラインエージェントをオンラインエージェントとして安全に転送し、継続的な学習を行い、オンラインで制御し、安全性と効率を大幅に向上させる。
論文 参考訳(メタデータ) (2020-05-20T08:02:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。