論文の概要: Deep Inverse Feature Learning: A Representation Learning of Error
- arxiv url: http://arxiv.org/abs/2003.04285v1
- Date: Mon, 9 Mar 2020 17:45:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 07:42:06.085349
- Title: Deep Inverse Feature Learning: A Representation Learning of Error
- Title(参考訳): Deep Inverse Feature Learning: エラーの表現学習
- Authors: Behzad Ghazanfari, Fatemeh Afghah
- Abstract要約: 本稿では,機械学習における誤りに対する新たな視点を紹介し,表現学習手法として逆特徴学習(IFL)を提案する。
逆特徴学習法は、深層クラスタリング手法に基づいて、誤り表現の定性的形式を特徴として求める。
実験の結果,提案手法は分類,特にクラスタリングにおいて有望な結果をもたらすことが示された。
- 参考スコア(独自算出の注目度): 6.5358895450258325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel perspective about error in machine learning and
proposes inverse feature learning (IFL) as a representation learning approach
that learns a set of high-level features based on the representation of error
for classification or clustering purposes. The proposed perspective about error
representation is fundamentally different from current learning methods, where
in classification approaches they interpret the error as a function of the
differences between the true labels and the predicted ones or in clustering
approaches, in which the clustering objective functions such as compactness are
used. Inverse feature learning method operates based on a deep clustering
approach to obtain a qualitative form of the representation of error as
features. The performance of the proposed IFL method is evaluated by applying
the learned features along with the original features, or just using the
learned features in different classification and clustering techniques for
several data sets. The experimental results show that the proposed method leads
to promising results in classification and especially in clustering. In
classification, the proposed features along with the primary features improve
the results of most of the classification methods on several popular data sets.
In clustering, the performance of different clustering methods is considerably
improved on different data sets. There are interesting results that show some
few features of the representation of error capture highly informative aspects
of primary features. We hope this paper helps to utilize the error
representation learning in different feature learning domains.
- Abstract(参考訳): 本稿では,機械学習における誤りに関する新しい視点を紹介し,分類やクラスタリングのための誤り表現に基づく高レベル特徴のセットを学習する表現学習手法として,逆特徴学習(ifl)を提案する。
提案する誤り表現の観点は,現在の学習手法と根本的に異なり,分類手法では誤りを,真のラベルと予測されたラベルの違いや,コンパクト性などのクラスタリング目的関数を用いたクラスタリングアプローチの関数として解釈する。
逆特徴学習法は、深層クラスタリング手法に基づいて、誤り表現の定性的形式を特徴として求める。
提案手法の性能は,学習特徴と元の特徴を併用するか,複数のデータセットの分類とクラスタリングの異なる手法で学習特徴を単に利用することによって評価される。
実験の結果,提案手法は分類,特にクラスタリングにおいて有望な結果をもたらすことがわかった。
分類において、提案する特徴と主特徴は、いくつかの一般的なデータセットの分類方法のほとんどの結果を改善する。
クラスタリングでは、異なるデータセット上で異なるクラスタリング手法の性能が大幅に改善される。
エラーの表現のいくつかの特徴が、主要な機能の非常に有益な側面を捉えている興味深い結果がある。
本稿では,様々な特徴学習領域における誤り表現学習の活用を期待する。
関連論文リスト
- Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - A Study on Representation Transfer for Few-Shot Learning [5.717951523323085]
ほとんどショットの分類は、いくつかのラベル付き例を使って、新しいオブジェクトカテゴリを適切に分類することを目的としていない。
本研究では, 様々な特徴表現の体系的研究を行い, 数発の分類を行う。
より複雑なタスクからの学習は、数ショットの分類においてより良い表現を与える傾向にある。
論文 参考訳(メタデータ) (2022-09-05T17:56:02Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Fine-Grained Visual Classification using Self Assessment Classifier [12.596520707449027]
識別的特徴の抽出は、きめ細かい視覚的分類タスクにおいて重要な役割を担っている。
本稿では,画像とトップkの予測クラスを同時に活用する自己評価手法を提案する。
本手法は,CUB200-2011,Stanford Dog,FGVC Aircraft のデータセットに対して,最新の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-05-21T07:41:27Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Clustering-friendly Representation Learning via Instance Discrimination
and Feature Decorrelation [0.0]
本稿では,インスタンス識別と特徴デコレーションを用いたクラスタリングに親しみやすい表現学習手法を提案する。
CIFAR-10とImageNet-10を用いた画像クラスタリングの評価では,それぞれ81.5%,95.4%の精度が得られた。
論文 参考訳(メタデータ) (2021-05-31T22:59:31Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Neural Networks as Functional Classifiers [0.0]
我々は、分類問題のために、注目すべき深層学習手法を機能データ領域に拡張する。
本手法の有効性を,分光データの分類などの多くの分類応用において強調する。
論文 参考訳(メタデータ) (2020-10-09T00:11:01Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Inverse Feature Learning: Feature learning based on Representation
Learning of Error [12.777440204911022]
本稿では,新しい教師付き特徴学習手法としての逆特徴学習を提案し,誤り表現アプローチに基づく分類のための高レベル特徴セットを学習する。
提案手法は,いくつかの一般的なデータセットに対する最先端の分類手法と比較して,性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-08T00:22:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。