論文の概要: Live and Learn: Continual Action Clustering with Incremental Views
- arxiv url: http://arxiv.org/abs/2404.07962v1
- Date: Sat, 23 Mar 2024 02:48:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-14 13:03:36.086019
- Title: Live and Learn: Continual Action Clustering with Incremental Views
- Title(参考訳): Live and Learn: インクリメンタルビューによる継続的なアクションクラスタリング
- Authors: Xiaoqiang Yan, Yingtao Gan, Yiqiao Mao, Yangdong Ye, Hui Yu,
- Abstract要約: 本稿では,連続的な学習方法で行動カテゴリを学習可能な,新しい連続的行動クラスタリング法を提案する。
新しいカメラビューが到着すると、入ってくる新しいカメラビューを活用することで更新できるコンセンサスパーティションマトリックスのみを保持する必要がある。
- 参考スコア(独自算出の注目度): 11.917325102987565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view action clustering leverages the complementary information from different camera views to enhance the clustering performance. Although existing approaches have achieved significant progress, they assume all camera views are available in advance, which is impractical when the camera view is incremental over time. Besides, learning the invariant information among multiple camera views is still a challenging issue, especially in continual learning scenario. Aiming at these problems, we propose a novel continual action clustering (CAC) method, which is capable of learning action categories in a continual learning manner. To be specific, we first devise a category memory library, which captures and stores the learned categories from historical views. Then, as a new camera view arrives, we only need to maintain a consensus partition matrix, which can be updated by leveraging the incoming new camera view rather than keeping all of them. Finally, a three-step alternate optimization is proposed, in which the category memory library and consensus partition matrix are optimized. The empirical experimental results on 6 realistic multi-view action collections demonstrate the excellent clustering performance and time/space efficiency of the CAC compared with 15 state-of-the-art baselines.
- Abstract(参考訳): マルチビューアクションクラスタリングは、異なるカメラビューからの補完情報を活用して、クラスタリング性能を向上させる。
既存のアプローチは大きな進歩を遂げているが、カメラビューはすべて事前に利用可能であり、カメラビューが経時的にインクリメンタルになる場合には現実的ではないと仮定している。
さらに、複数のカメラビュー間で不変情報を学習することは、特に連続的な学習シナリオにおいて依然として難しい問題である。
そこで本研究では,動作カテゴリを連続的な学習方法で学習可能な,新しい連続的行動クラスタリング(CAC)手法を提案する。
具体的には、まず、学習したカテゴリを歴史的視点からキャプチャし、保存するカテゴリ記憶ライブラリを考案する。
そして、新しいカメラビューが到着すると、すべてのカメラビューを保持するのではなく、新しいカメラビューを活用することで更新できるコンセンサスパーティションマトリックスを維持する必要がある。
最後に,カテゴリメモリライブラリとコンセンサス分割行列を最適化した3段階の代替最適化を提案する。
CACのクラスタリング性能と時間/空間効率は,6つのリアルなマルチビューアクションコレクションの実証実験により向上した。
関連論文リスト
- Contrastive Mean-Shift Learning for Generalized Category Discovery [45.19923199324919]
一般化圏発見(GCD)の問題に対処する。
我々は平均シフトアルゴリズム、すなわちモード探索のための強力な手法を再検討し、これを対照的な学習フレームワークに組み込む。
提案手法はContrastive Mean-Shift(CMS)学習と呼ばれ,より優れたクラスタリング特性を持つ表現を生成するためにイメージエンコーダを訓練する。
論文 参考訳(メタデータ) (2024-04-15T04:31:24Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Learning to Select Camera Views: Efficient Multiview Understanding at
Few Glances [59.34619548026885]
本稿では,対象物やシナリオを所定のビューから分析し,処理に最適なビューを選択するビュー選択手法を提案する。
提案手法は,MVSelectという強化学習に基づくカメラ選択モジュールを備えており,ビューの選択だけでなく,タスクネットワークとの協調トレーニングも容易である。
論文 参考訳(メタデータ) (2023-03-10T18:59:10Z) - Continual Learning for Visual Search with Backward Consistent Feature
Embedding [26.89922800367714]
ビジュアル検索では、ギャラリーセットが徐々に成長し、実際にデータベースに追加される可能性がある。
既存のメソッドはデータセット全体をトレーニングしたモデルに依存しており、モデルの継続的な更新を無視している。
後方埋め込み整合性を備えた漸進的に成長するギャラリーセットを処理できる継続学習(CL)アプローチを導入する。
論文 参考訳(メタデータ) (2022-05-26T14:15:29Z) - Cross-View Cross-Scene Multi-View Crowd Counting [56.83882084112913]
従来,複数カメラを用いて1台のカメラの視野を拡大する手法が提案されてきた。
任意のカメラレイアウトで異なるシーンでトレーニングやテストを行う,クロスビュー・クロスシーン(CVCS)のマルチビュー・クラウドカウント・パラダイムを提案する。
論文 参考訳(メタデータ) (2022-05-03T15:03:44Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - Iterative Frame-Level Representation Learning And Classification For
Semi-Supervised Temporal Action Segmentation [25.08516972520265]
時間的アクションセグメンテーションは、各フレームのアクションを(長い)ビデオシーケンスで分類する。
時間的行動セグメント化のための第1の半教師付き手法を提案する。
論文 参考訳(メタデータ) (2021-12-02T16:47:24Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Hierarchical Attention Network for Action Segmentation [45.19890687786009]
イベントの時間的セグメンテーションは、ビデオにおける人間の行動の自動認識のための重要なタスクであり、前駆体である。
我々は、時間とともに行動間の関係をよりよく学習できる、エンドツーエンドの教師あり学習手法を提案する。
我々は,MERLショッピング,50サラダ,ジョージア技術エゴセントリックデータセットなど,公開ベンチマークデータセットの課題を評価する。
論文 参考訳(メタデータ) (2020-05-07T02:39:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。