論文の概要: Improve High Level Classification with a More Sensitive metric and
Optimization approach for Complex Network Building
- arxiv url: http://arxiv.org/abs/2110.12111v1
- Date: Sat, 23 Oct 2021 01:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 00:03:10.263763
- Title: Improve High Level Classification with a More Sensitive metric and
Optimization approach for Complex Network Building
- Title(参考訳): 複雑ネットワーク構築のための高次尺度と最適化手法による高次分類の改善
- Authors: Josimar Chire
- Abstract要約: 本稿では,各クラスに属するサンプルのみを考慮した複雑ネットワークの作成について紹介する。
そして、メトリックを使用して複雑なネットワークの構造を解析し、性能を改善するための最適化アプローチを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Complex Networks are a good approach to find internal relationships and
represent the structure of classes in a dataset then they are used for High
Level Classification. Previous works use K-Nearest Neighbors to build each
Complex Network considering all the available samples. This paper introduces a
different creation of Complex Networks, considering only sample which belongs
to each class. And metric is used to analyze the structure of Complex Networks,
besides an optimization approach to improve the performance is presented.
Experiments are executed considering a cross validation process, the
optimization approach is performed using grid search and Genetic Algorithm,
this process can improve the results up to 10%.
- Abstract(参考訳): 複雑なネットワークは、内部的な関係を見つけ、データセット内のクラス構造を表現するのに良いアプローチであり、それらをハイレベルな分類に利用します。
以前の研究では、k-nearestの隣人が利用可能なサンプルをすべて考慮して、それぞれの複雑なネットワークを構築する。
本稿では,各クラスに属するサンプルのみを考慮した複雑ネットワークの作成について紹介する。
そして、メトリックを使用して複雑なネットワークの構造を解析し、性能を改善するための最適化アプローチを示す。
クロスバリデーションプロセスを考慮して実験を行い、グリッド探索と遺伝的アルゴリズムを用いて最適化を行い、その結果を最大10%改善することができる。
関連論文リスト
- Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Decentralized Gossip-Based Stochastic Bilevel Optimization over
Communication Networks [42.76623191830371]
本稿では,ゴシップに基づく分散二段階最適化アルゴリズムを提案する。
エージェントはネットワークと外部の両方の問題を一度に解くことができる。
我々のアルゴリズムは最先端の効率とテスト精度を達成する。
論文 参考訳(メタデータ) (2022-06-22T06:38:54Z) - Shapley-NAS: Discovering Operation Contribution for Neural Architecture
Search [96.20505710087392]
ニューラルアーキテクチャ探索のための演算寄与度(Shapley-NAS)を評価するためのShapley値に基づく手法を提案する。
提案手法は,光探索コストに比例して最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-20T14:41:49Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - Cyclic Differentiable Architecture Search [99.12381460261841]
微分可能なArchiTecture Search(DARTS)は、ニューラルアーキテクチャサーチにおいて大きな注目を集めている。
我々はCDARTSと呼ばれる新しい共同目標と新しい周期微分可能なArchiTecture Searchフレームワークを提案する。
DARTS検索の分野では、CIFAR10で97.52%、ImageNetで76.3%、トップ1で76.3%の精度を達成した。
論文 参考訳(メタデータ) (2020-06-18T17:55:19Z) - Improving k-Means Clustering Performance with Disentangled Internal
Representations [0.0]
本稿では,オートエンコーダの学習遅延符号表現の絡み合いを最適化する,シンプルなアプローチを提案する。
提案手法を用いて,MNISTデータセットでは96.2%,Fashion-MNISTデータセットでは85.6%,EMNIST Balancedデータセットでは79.2%,ベースラインモデルでは79.2%であった。
論文 参考訳(メタデータ) (2020-06-05T11:32:34Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Hierarchical clustering of bipartite data sets based on the statistical
significance of coincidences [0.0]
本稿では,2つのエンティティが共有する特徴が単なるチャンスに起因する確率を定量化するエンティティ間の相似性に基づく階層的クラスタリングアルゴリズムを提案する。
アルゴリズムのパフォーマンスは n 個のエンティティの集合に適用された場合$O(n2)$であり、その結果はそれらのエンティティの接続を示すデンドログラムである。
論文 参考訳(メタデータ) (2020-04-27T23:30:18Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。