論文の概要: Classification with Costly Features in Hierarchical Deep Sets
- arxiv url: http://arxiv.org/abs/1911.08756v6
- Date: Thu, 29 Feb 2024 15:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-03 15:26:53.507219
- Title: Classification with Costly Features in Hierarchical Deep Sets
- Title(参考訳): 階層的深層集合におけるコスト特性の分類
- Authors: Jarom\'ir Janisch, Tom\'a\v{s} Pevn\'y and Viliam Lis\'y
- Abstract要約: 本研究では,階層的深度集合と階層的ソフトマックスを用いて,既存の深度強化学習に基づくアルゴリズムを拡張した。
拡張された手法は、どの機能を取得できるかをよりよく制御し、7つのデータセットで実験した結果、性能が向上することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classification with Costly Features (CwCF) is a classification problem that
includes the cost of features in the optimization criteria. Individually for
each sample, its features are sequentially acquired to maximize accuracy while
minimizing the acquired features' cost. However, existing approaches can only
process data that can be expressed as vectors of fixed length. In real life,
the data often possesses rich and complex structure, which can be more
precisely described with formats such as XML or JSON. The data is hierarchical
and often contains nested lists of objects. In this work, we extend an existing
deep reinforcement learning-based algorithm with hierarchical deep sets and
hierarchical softmax, so that it can directly process this data. The extended
method has greater control over which features it can acquire and, in
experiments with seven datasets, we show that this leads to superior
performance. To showcase the real usage of the new method, we apply it to a
real-life problem of classifying malicious web domains, using an online
service.
- Abstract(参考訳): コスト特徴の分類 (CwCF) は、最適化基準に含まれる特徴のコストを含む分類問題である。
個々のサンプルについて、その特徴を逐次取得して精度を最大化し、取得した特徴のコストを最小化する。
しかし、既存のアプローチでは、固定長のベクトルとして表現できるデータしか処理できない。
実生活では、データはしばしばリッチで複雑な構造を持ち、xmlやjsonのようなフォーマットでより正確に記述できる。
データは階層的であり、しばしばネストしたオブジェクトのリストを含む。
本研究では,階層的深層集合と階層的ソフトマックスを用いて,既存の深部強化学習に基づくアルゴリズムを拡張し,このデータを直接処理できるようにする。
拡張メソッドは、取得可能な機能をより多く制御でき、7つのデータセットを用いた実験では、優れたパフォーマンスをもたらすことが示される。
本手法の実際の使用例を示すために,オンラインサービスを用いて悪意あるWebドメインを分類する現実的な問題に適用する。
関連論文リスト
- Reducing the dimensionality and granularity in hierarchical categorical variables [2.089191490381739]
階層型分類変数の縮小表現を求める手法を提案する。
エンティティの埋め込みが階層的な環境でどのように適用できるかを示す。
提案手法を実際のデータセットに適用し,階層構造が元の階層構造よりも改善されていることを確認する。
論文 参考訳(メタデータ) (2024-03-06T11:09:36Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Decision Making for Hierarchical Multi-label Classification with
Multidimensional Local Precision Rate [4.812468844362369]
我々は,各クラスの各対象に対して,多次元局所精度率 (mLPR) と呼ばれる新しい統計モデルを導入する。
我々は,mLPRの下位順序でクラス間でオブジェクトをソートするだけで,クラス階層を確実にすることができることを示す。
これに対し、階層を尊重しながら推定mLPRを用いてCATCHの実証バージョンを最大化する新しいアルゴリズムであるHierRankを導入する。
論文 参考訳(メタデータ) (2022-05-16T17:43:35Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - Parallel feature selection based on the trace ratio criterion [4.30274561163157]
本研究は,PFSTを用いた並列特徴選択という,新しい並列特徴選択手法を提案する。
提案手法は,Fisher's Discriminant Analysisで用いられるクラス分離性の尺度であるトレース基準を用いて特徴的有用性を評価する。
実験により,本手法は,比較対象の他の手法による時間的差のごく一部で,少数の特徴セットを生成できることが確認された。
論文 参考訳(メタデータ) (2022-03-03T10:50:33Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Dominant Set-based Active Learning for Text Classification and its
Application to Online Social Media [0.0]
本稿では,最小限のアノテーションコストで大規模未ラベルコーパスのトレーニングを行うための,プールベースのアクティブラーニング手法を提案する。
提案手法には調整すべきパラメータが一切ないため,データセットに依存しない。
本手法は,最先端のアクティブラーニング戦略と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2022-01-28T19:19:03Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Leveraging Class Hierarchies with Metric-Guided Prototype Learning [5.070542698701158]
多くの分類タスクでは、ターゲットクラスのセットは階層に分類できる。
この構造はクラス間の意味的距離を誘導し、コスト行列の形で要約することができる。
本稿では,この指標を原型ネットワークの監視に組み込むことにより,階層型クラス構造をモデル化することを提案する。
論文 参考訳(メタデータ) (2020-07-06T20:22:08Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z) - New advances in enumerative biclustering algorithms with online
partitioning [80.22629846165306]
さらに、数値データセットの列に定数値を持つ最大二クラスタの効率的で完全で正しい非冗長列挙を実現できる二クラスタリングアルゴリズムであるRIn-Close_CVCを拡張した。
改良されたアルゴリズムはRIn-Close_CVC3と呼ばれ、RIn-Close_CVCの魅力的な特性を保ちます。
論文 参考訳(メタデータ) (2020-03-07T14:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。