論文の概要: Continual Hyperbolic Learning of Instances and Classes
- arxiv url: http://arxiv.org/abs/2506.10710v1
- Date: Thu, 12 Jun 2025 13:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.763337
- Title: Continual Hyperbolic Learning of Instances and Classes
- Title(参考訳): インスタンスとクラスの連続的双曲学習
- Authors: Melika Ayoughi, Mina Ghadimi Atigh, Mohammad Mahdi Derakhshani, Cees G. M. Snoek, Pascal Mettes, Paul Groth,
- Abstract要約: インスタンスとクラスを連続的に学習するタスクを同時に導入する。
このタスクは、時間とともに複数のレベルの粒度に適応するようにモデルに挑戦する。
本稿では,クラスとインスタンスが自然に階層構造を形成することを確かめる。
- 参考スコア(独自算出の注目度): 41.32412210317651
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continual learning has traditionally focused on classifying either instances or classes, but real-world applications, such as robotics and self-driving cars, require models to handle both simultaneously. To mirror real-life scenarios, we introduce the task of continual learning of instances and classes, at the same time. This task challenges models to adapt to multiple levels of granularity over time, which requires balancing fine-grained instance recognition with coarse-grained class generalization. In this paper, we identify that classes and instances naturally form a hierarchical structure. To model these hierarchical relationships, we propose HyperCLIC, a continual learning algorithm that leverages hyperbolic space, which is uniquely suited for hierarchical data due to its ability to represent tree-like structures with low distortion and compact embeddings. Our framework incorporates hyperbolic classification and distillation objectives, enabling the continual embedding of hierarchical relations. To evaluate performance across multiple granularities, we introduce continual hierarchical metrics. We validate our approach on EgoObjects, the only dataset that captures the complexity of hierarchical object recognition in dynamic real-world environments. Empirical results show that HyperCLIC operates effectively at multiple granularities with improved hierarchical generalization.
- Abstract(参考訳): 継続的学習は伝統的にインスタンスまたはクラスのいずれかを分類することに重点を置いてきたが、ロボット工学や自動運転車のような現実世界のアプリケーションでは、両方を同時に扱うためにモデルが必要である。
実生活シナリオを反映するために,インスタンスとクラスを継続的に学習するタスクを同時に導入する。
このタスクは、細粒度のインスタンス認識と粗粒度のクラス一般化のバランスを必要とする、時間とともに複数の粒度に適応するモデルに挑戦する。
本稿では,クラスとインスタンスが自然に階層構造を形成することを確かめる。
このような階層的関係をモデル化するために,高次学習アルゴリズムであるHyperCLICを提案する。
この枠組みは, 双曲的分類と蒸留の目的を取り入れ, 階層的関係の連続的な埋め込みを可能にする。
複数の粒度にまたがる性能を評価するために,連続的階層的メトリクスを導入する。
動的現実環境における階層的オブジェクト認識の複雑さを捉えた唯一のデータセットであるEgoObjectsに対するアプローチを検証する。
実験結果から,HyperCLICは階層的一般化を改良した複数の粒度で効果的に動作することが示された。
関連論文リスト
- From Logits to Hierarchies: Hierarchical Clustering made Simple [16.132657141993548]
事前訓練された非階層クラスタリングモデル上に実装された軽量なプロシージャは、階層クラスタリングに特化して設計されたモデルより優れていることを示す。
提案手法は,微調整を必要とせず,ログを出力する事前学習クラスタリングモデルに適用可能である。
論文 参考訳(メタデータ) (2024-10-10T12:27:45Z) - GrootVL: Tree Topology is All You Need in State Space Model [66.36757400689281]
GrootVLは、視覚的タスクとテキストタスクの両方に適用できる多目的マルチモーダルフレームワークである。
本手法は, 画像分類, オブジェクト検出, セグメンテーションにおいて, 既存の構造化状態空間モデルよりも大幅に優れる。
大規模言語モデルの微調整により,本手法は訓練コストの少ない複数のテキストタスクにおいて一貫した改善を実現する。
論文 参考訳(メタデータ) (2024-06-04T15:09:29Z) - How Deep Networks Learn Sparse and Hierarchical Data: the Sparse Random Hierarchy Model [4.215221129670858]
生成的階層的データモデルに空間性を導入することで、スムーズな変換の離散バージョンである空間変換に対する非感受性を得ることを示す。
SRHMを学習するCNNのサンプルの複雑さが、タスクのスパーシリティと階層構造の両方に依存するかを定量化する。
論文 参考訳(メタデータ) (2024-04-16T17:01:27Z) - How Deep Neural Networks Learn Compositional Data: The Random Hierarchy Model [47.617093812158366]
言語と画像の階層構造にインスパイアされた合成タスクのファミリーであるランダム階層モデルを紹介する。
深層ネットワークは、等価なグループを交換するために不変な内部表現を開発することでタスクを学習する。
この結果から, ネットワークは次元の呪いを克服し, 不変表現を構築できることが示唆された。
論文 参考訳(メタデータ) (2023-07-05T09:11:09Z) - Learning from Mistakes: Self-Regularizing Hierarchical Representations
in Point Cloud Semantic Segmentation [15.353256018248103]
LiDARセマンティックセマンティックセマンティクスは、きめ細かいシーン理解を実現するために注目を集めている。
本稿では、標準モデルから派生した分類ミスタケス(LEAK)からLEArnを分離する粗大な設定を提案する。
我々のLEAKアプローチは非常に一般的で、どんなセグメンテーションアーキテクチャにもシームレスに適用できます。
論文 参考訳(メタデータ) (2023-01-26T14:52:30Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - HRKD: Hierarchical Relational Knowledge Distillation for Cross-domain
Language Model Compression [53.90578309960526]
大規模事前学習言語モデル(PLM)は、従来のニューラルネットワーク手法と比較して圧倒的な性能を示している。
階層的および領域的関係情報の両方を抽出する階層的関係知識蒸留法(HRKD)を提案する。
論文 参考訳(メタデータ) (2021-10-16T11:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。