論文の概要: Deep Feature Space: A Geometrical Perspective
- arxiv url: http://arxiv.org/abs/2007.00062v2
- Date: Thu, 1 Jul 2021 16:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:39:30.894928
- Title: Deep Feature Space: A Geometrical Perspective
- Title(参考訳): Deep Feature Space: 幾何学的視点
- Authors: Ioannis Kansizoglou, Loukas Bampis, Antonios Gasteratos
- Abstract要約: 本稿では,NNの出力層の前にベクトル空間を可視化し,理解する新しい方法を提案する。
特徴空間における過度な適合の性質と、さらなる搾取に対する悪影響に注意が払われる。
- 参考スコア(独自算出の注目度): 2.763016063783766
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of the most prominent attributes of Neural Networks (NNs) constitutes
their capability of learning to extract robust and descriptive features from
high dimensional data, like images. Hence, such an ability renders their
exploitation as feature extractors particularly frequent in an abundant of
modern reasoning systems. Their application scope mainly includes complex
cascade tasks, like multi-modal recognition and deep Reinforcement Learning
(RL). However, NNs induce implicit biases that are difficult to avoid or to
deal with and are not met in traditional image descriptors. Moreover, the lack
of knowledge for describing the intra-layer properties -- and thus their
general behavior -- restricts the further applicability of the extracted
features. With the paper at hand, a novel way of visualizing and understanding
the vector space before the NNs' output layer is presented, aiming to enlighten
the deep feature vectors' properties under classification tasks. Main attention
is paid to the nature of overfitting in the feature space and its adverse
effect on further exploitation. We present the findings that can be derived
from our model's formulation, and we evaluate them on realistic recognition
scenarios, proving its prominence by improving the obtained results.
- Abstract(参考訳): ニューラルネットワーク(NN)の最も重要な特性の1つは、画像のような高次元データから堅牢で記述的な特徴を抽出する学習能力である。
したがって、このような能力は、現代の多くの推論システムにおいて、特徴抽出器としての利用を特に頻繁に行う。
アプリケーションの範囲は主に、マルチモーダル認識や深層強化学習(RL)のような複雑なカスケードタスクを含む。
しかし、NNは、回避や対処が困難で、従来の画像記述子では満たされない暗黙のバイアスを誘発する。
さらに、層内特性とその一般的な振る舞いを記述する知識の欠如により、抽出された特徴のさらなる適用性が制限される。
本論文では,NNの出力層前におけるベクトル空間の可視化と理解を行う新しい手法について述べる。
特徴空間における過度な適合の性質と、さらなる搾取に対する悪影響に注意が払われる。
本論文は,本モデルの定式化から得られる知見を提示し,実際の認識シナリオで評価し,得られた結果を改善することでその有望性を証明する。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Neural Surface Reconstruction from Sparse Views Using Epipolar Geometry [4.659427498118277]
再建過程にエピポーラ情報を組み込んだ新しい手法であるEpiSを提案する。
提案手法は,コストボリュームから複数のソースビューから抽出したエピポーラ特徴に粗い情報を集約する。
スパース条件における情報ギャップに対処するため,グローバルおよび局所正規化手法を用いて単眼深度推定から深度情報を統合する。
論文 参考訳(メタデータ) (2024-06-06T17:47:48Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Explaining, Evaluating and Enhancing Neural Networks' Learned
Representations [2.1485350418225244]
より効率的で効率的な表現への障害ではなく、いかに説明可能性が助けになるかを示す。
我々は,2つの新しいスコアを定義して,潜伏埋め込みの難易度と難易度を評価する。
表現学習課題の訓練において,提案したスコアを制約として採用することで,モデルの下流性能が向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T19:00:01Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - SEKD: Self-Evolving Keypoint Detection and Description [42.114065439674036]
ラベルのない自然画像から高度な局所特徴モデルを学ぶための自己教師型フレームワークを提案する。
提案手法は, ホモグラフィー推定, 相対的なポーズ推定, および動きからの構造的タスクについてベンチマークする。
トレーニングされたモデルとともに、コードを公開します。
論文 参考訳(メタデータ) (2020-06-09T06:56:50Z) - Depth Selection for Deep ReLU Nets in Feature Extraction and
Generalization [22.696129751033983]
本研究では,従来の経験的リスク最小化を深層ネットに実装することで,多くの学習課題に対して最適な一般化性能が得られることを示す。
本研究は, トイシミュレーションや地震震度予測の実用化など, 一連の数値実験により検証した。
論文 参考訳(メタデータ) (2020-04-01T06:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。