論文の概要: Learning and Evaluating Hierarchical Feature Representations
- arxiv url: http://arxiv.org/abs/2503.07853v1
- Date: Mon, 10 Mar 2025 20:59:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:45:10.116887
- Title: Learning and Evaluating Hierarchical Feature Representations
- Title(参考訳): 階層的特徴表現の学習と評価
- Authors: Depanshu Sani, Saket Anand,
- Abstract要約: 我々は、直交部分空間の階層的構成(Hier-COS)という新しい枠組みを提案する。
Hier-COSは、与えられた分類木の構造と整合した設計により、深い特徴埋め込みをベクトル空間にマッピングすることを学ぶ。
Hier-COSはすべてのデータセットにまたがって最先端の階層的パフォーマンスを実現し,同時に1つのケースを除いてトップ1の精度を上回ります。
- 参考スコア(独自算出の注目度): 3.770103075126785
- License:
- Abstract: Hierarchy-aware representations ensure that the semantically closer classes are mapped closer in the feature space, thereby reducing the severity of mistakes while enabling consistent coarse-level class predictions. Towards this end, we propose a novel framework, Hierarchical Composition of Orthogonal Subspaces (Hier-COS), which learns to map deep feature embeddings into a vector space that is, by design, consistent with the structure of a given taxonomy tree. Our approach augments neural network backbones with a simple transformation module that maps learned discriminative features to subspaces defined using a fixed orthogonal frame. This construction naturally improves the severity of mistakes and promotes hierarchical consistency. Furthermore, we highlight the fundamental limitations of existing hierarchical evaluation metrics popularly used by the vision community and introduce a preference-based metric, Hierarchically Ordered Preference Score (HOPS), to overcome these limitations. We benchmark our method on multiple large and challenging datasets having deep label hierarchies (ranging from 3 - 12 levels) and compare with several baselines and SOTA. Through extensive experiments, we demonstrate that Hier-COS achieves state-of-the-art hierarchical performance across all the datasets while simultaneously beating top-1 accuracy in all but one case. We also demonstrate the performance of a Vision Transformer (ViT) backbone and show that learning a transformation module alone can map the learned features from a pre-trained ViT to Hier-COS and yield substantial performance benefits.
- Abstract(参考訳): 階層型対応表現は、意味的に近いクラスが特徴空間に近くマッピングされることを保証する。
この目的に向けて,直交部分空間の階層構成(Hierarchical composition of Orthogonal Subspaces, Hier-COS)を提案する。
我々のアプローチは、ニューラルネットワークのバックボーンを単純な変換モジュールで拡張し、学習した識別的特徴を固定直交フレームを用いて定義された部分空間にマッピングする。
この構造は間違いの深刻さを自然に改善し、階層的な一貫性を促進する。
さらに、視覚コミュニティで広く使われている既存の階層的評価指標の基本的限界を強調し、これらの制限を克服するために、優先順位に基づく基準である階層的優先順位スコア(HOPS)を導入する。
提案手法は,ラベル階層を3~12レベルに拡大した大規模で難解な複数のデータセットをベンチマークし,複数のベースラインとSOTAと比較する。
大規模な実験を通じて、Hier-COSはすべてのデータセットに対して最先端の階層的性能を達成し、同時に1つのケースを除いてトップ1の精度を上回ります。
また、視覚変換器(ViT)のバックボーンの性能を実証し、学習モジュールだけで学習した特徴をトレーニング済みのViTからHier-COSにマッピングし、かなりの性能上の利点が得られることを示す。
関連論文リスト
- Learning Structured Representations with Hyperbolic Embeddings [22.95613852886361]
ラベル階層を学習表現に正確に埋め込むハイパーボリック構造正規化手法HypStructureを提案する。
いくつかの大規模ビジョンベンチマークの実験では、歪みを低減するためのHypStructureの有効性が示されている。
構造化された表現をよりよく理解するために、表現幾何学と改善されたout-of-Distribution(OOD)検出性能をリンクする固有値解析を行う。
論文 参考訳(メタデータ) (2024-12-02T00:56:44Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Self-supervised Learning of Dense Hierarchical Representations for Medical Image Segmentation [2.2265038612930663]
本稿では,高密度下流タスクに適したボクセルワイド粗い表現を学習するための自己教師型フレームワークについて述べる。
我々は、複数のスケールから機能のコントリビューションのバランスをとるためのトレーニング戦略を考案し、学習された表現が粗い詳細ときめ細かい詳細の両方を捉えることを保証する。
論文 参考訳(メタデータ) (2024-01-12T09:47:17Z) - On Characterizing the Evolution of Embedding Space of Neural Networks
using Algebraic Topology [9.537910170141467]
特徴埋め込み空間のトポロジがベッチ数を介してよく訓練されたディープニューラルネットワーク(DNN)の層を通過するとき、どのように変化するかを検討する。
深度が増加するにつれて、トポロジカルに複雑なデータセットが単純なデータセットに変換され、ベッチ数はその最小値に達することが示される。
論文 参考訳(メタデータ) (2023-11-08T10:45:12Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Deep Hierarchical Semantic Segmentation [76.40565872257709]
階層的セマンティックセマンティックセグメンテーション(HSS)は、クラス階層の観点で視覚的観察を構造化、ピクセル単位で記述することを目的としている。
HSSNは、HSSを画素単位のマルチラベル分類タスクとしてキャストし、現在のセグメンテーションモデルに最小限のアーキテクチャ変更をもたらすだけである。
階層構造によって引き起こされるマージンの制約により、HSSNはピクセル埋め込み空間を再評価し、よく構造化されたピクセル表現を生成する。
論文 参考訳(メタデータ) (2022-03-27T15:47:44Z) - Provable Hierarchy-Based Meta-Reinforcement Learning [50.17896588738377]
HRLをメタRL設定で解析し、下流タスクで使用するメタトレーニング中に学習者が潜在階層構造を学習する。
我々は、この自然階層の標本効率の回復を保証し、抽出可能な楽観主義に基づくアルゴリズムとともに「多様性条件」を提供する。
我々の境界は、時間的・状態的・行動的抽象化などのHRL文献に共通する概念を取り入れており、我々の設定と分析が実際にHRLの重要な特徴を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-10-18T17:56:02Z) - Structure-Aware Feature Generation for Zero-Shot Learning [108.76968151682621]
潜在空間と生成ネットワークの両方を学習する際の位相構造を考慮し,SA-GANと呼ばれる新しい構造認識特徴生成手法を提案する。
本手法は,未確認クラスの一般化能力を大幅に向上させ,分類性能を向上させる。
論文 参考訳(メタデータ) (2021-08-16T11:52:08Z) - Hierarchical Domain-Adapted Feature Learning for Video Saliency
Prediction [15.270499225813841]
本稿では,ビデオ・サリエンシ予測のための3次元完全畳み込みアーキテクチャを提案する。
ドメイン適応とドメイン固有学習の2つの手法を用いて,基本階層学習機構を提供する。
実験の結果,提案モデルにより,教師付きサリエンシ予測における最先端の精度が得られた。
論文 参考訳(メタデータ) (2020-10-02T23:00:00Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。