論文の概要: Inverse Feature Learning: Feature learning based on Representation
Learning of Error
- arxiv url: http://arxiv.org/abs/2003.03689v1
- Date: Sun, 8 Mar 2020 00:22:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 13:56:53.990985
- Title: Inverse Feature Learning: Feature learning based on Representation
Learning of Error
- Title(参考訳): 逆特徴学習:エラーの表現学習に基づく特徴学習
- Authors: Behzad Ghazanfari, Fatemeh Afghah, MohammadTaghi Hajiaghayi
- Abstract要約: 本稿では,新しい教師付き特徴学習手法としての逆特徴学習を提案し,誤り表現アプローチに基づく分類のための高レベル特徴セットを学習する。
提案手法は,いくつかの一般的なデータセットに対する最先端の分類手法と比較して,性能が著しく向上する。
- 参考スコア(独自算出の注目度): 12.777440204911022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes inverse feature learning as a novel supervised feature
learning technique that learns a set of high-level features for classification
based on an error representation approach. The key contribution of this method
is to learn the representation of error as high-level features, while current
representation learning methods interpret error by loss functions which are
obtained as a function of differences between the true labels and the predicted
ones. One advantage of such learning method is that the learned features for
each class are independent of learned features for other classes; therefore,
this method can learn simultaneously meaning that it can learn new classes
without retraining. Error representation learning can also help with
generalization and reduce the chance of over-fitting by adding a set of
impactful features to the original data set which capture the relationships
between each instance and different classes through an error generation and
analysis process. This method can be particularly effective in data sets, where
the instances of each class have diverse feature representations or the ones
with imbalanced classes. The experimental results show that the proposed method
results in significantly better performance compared to the state-of-the-art
classification techniques for several popular data sets. We hope this paper can
open a new path to utilize the proposed perspective of error representation
learning in different feature learning domains.
- Abstract(参考訳): 本稿では,エラー表現に基づく分類のための高レベル特徴のセットを学習する新しい教師付き特徴学習手法として,逆特徴学習を提案する。
本手法の主な貢献は,誤差を高次特徴として学習することであり,現在の表現学習法は,真のラベルと予測値との差分関数として得られる損失関数によって誤りを解釈する。
このような学習手法の利点の1つは、各クラスで学習した特徴が他のクラスで学習した特徴とは無関係であることである。
エラー表現学習は、エラー生成と分析プロセスを通じて各インスタンスと異なるクラスの関係をキャプチャする、オリジナルのデータセットに影響のある一連の機能を追加することで、一般化と過度な適合の機会を減らすのにも役立ちます。
この方法は、各クラスのインスタンスが多様な特徴表現または不均衡クラスを持つデータセットにおいて特に効果的である。
実験の結果,提案手法は,いくつかの人気データセットの最先端分類手法と比較して,性能が著しく向上することが示された。
本稿では,異なる特徴量学習領域における誤り表現学習の視点を生かした新しい経路の開拓を期待する。
関連論文リスト
- Don't Forget Too Much: Towards Machine Unlearning on Feature Level [16.32116782528703]
我々は特徴未学習と呼ばれる洗練された粒度未学習スキームを提案する。
まず、機能に関するアノテーション情報が与えられるかどうかに基づいて、2つのシナリオを探索する。
本稿では,特徴に対する影響を自動的に除去する逆学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T14:08:46Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - A Similarity-based Framework for Classification Task [21.182406977328267]
類似性に基づく手法は,複数ラベル学習のための新しい手法のクラスを生み出し,有望な性能を達成する。
類似性に基づく学習と一般化された線形モデルを組み合わせて、両方の世界のベストを達成します。
論文 参考訳(メタデータ) (2022-03-05T06:39:50Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Finding Significant Features for Few-Shot Learning using Dimensionality
Reduction [0.0]
このモジュールは、計量学習法により与えられる類似度関数を、分類のためのより識別的な特徴を持つようにすることで、精度の向上を支援する。
提案手法は,MiniImageNetデータセットにおけるメトリック学習ベースラインの精度を約2%向上させる。
論文 参考訳(メタデータ) (2021-07-06T16:36:57Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z) - An analysis on the use of autoencoders for representation learning:
fundamentals, learning task case studies, explainability and challenges [11.329636084818778]
多くの機械学習タスクでは、データの優れた表現を学ぶことが、優れたパフォーマンスのソリューションを構築するための鍵となる。
可視化のためのデータ埋め込み,画像認識,セマンティックハッシュ,異常行動の検出,インスタンス生成など,一連の学習課題を提示する。
オートエンコーダを唯一の学習方法として用いた各タスクに対して,解を提案する。
論文 参考訳(メタデータ) (2020-05-21T08:41:57Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Deep Inverse Feature Learning: A Representation Learning of Error [6.5358895450258325]
本稿では,機械学習における誤りに対する新たな視点を紹介し,表現学習手法として逆特徴学習(IFL)を提案する。
逆特徴学習法は、深層クラスタリング手法に基づいて、誤り表現の定性的形式を特徴として求める。
実験の結果,提案手法は分類,特にクラスタリングにおいて有望な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2020-03-09T17:45:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。