論文の概要: Multi-Objective Optimisation of Multi-Output Neural Trees
- arxiv url: http://arxiv.org/abs/2010.04524v2
- Date: Fri, 18 Feb 2022 17:38:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 04:55:38.925569
- Title: Multi-Objective Optimisation of Multi-Output Neural Trees
- Title(参考訳): マルチアウトプットニューラルツリーの多目的最適化
- Authors: Varun Ojha and Giuseppe Nicosia
- Abstract要約: 非支配的遺伝的ソートアルゴリズム(NSGA-III)によって訓練された進化的学習アルゴリズムである多出力ニューラルツリー(MONT)アルゴリズムを提案する。
我々は、MONTの性能を評価するために、9つのベンチマーク分類学習問題を使用する。
本研究におけるMONTの性能は,よく知られた分類器のセットと比較して,一連の問題よりも向上した。
- 参考スコア(独自算出の注目度): 1.000779758350696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an algorithm and a new method to tackle the classification
problems. We propose a multi-output neural tree (MONT) algorithm, which is an
evolutionary learning algorithm trained by the non-dominated sorting genetic
algorithm (NSGA)-III. Since evolutionary learning is stochastic, a hypothesis
found in the form of MONT is unique for each run of evolutionary learning,
i.e., each hypothesis (tree) generated bears distinct properties compared to
any other hypothesis both in topological space and parameter-space. This leads
to a challenging optimisation problem where the aim is to minimise the
tree-size and maximise the classification accuracy. Therefore, the
Pareto-optimality concerns were met by hypervolume indicator analysis. We used
nine benchmark classification learning problems to evaluate the performance of
the MONT. As a result of our experiments, we obtained MONTs which are able to
tackle the classification problems with high accuracy. The performance of MONT
emerged better over a set of problems tackled in this study compared with a set
of well-known classifiers: multilayer perceptron, reduced-error pruning tree,
naive Bayes classifier, decision tree, and support vector machine. Moreover,
the performances of three versions of MONT's training using genetic
programming, NSGA-II, and NSGA-III suggest that the NSGA-III gives the best
Pareto-optimal solution.
- Abstract(参考訳): 分類問題に取り組むためのアルゴリズムと新しい手法を提案する。
非支配的ソート遺伝的アルゴリズム(NSGA-III)によって訓練された進化的学習アルゴリズムであるマルチアウトプットニューラルツリー(MONT)アルゴリズムを提案する。
進化的学習は確率的であるため、モンの形で見られる仮説は、進化的学習の各実行において一意であり、すなわち、各仮説(木)が生成する性質は、位相空間とパラメータ空間の両方の他の仮説と比較して異なる。
これにより、木の大きさを最小化し、分類精度を最大化することが目的の最適化問題に繋がる。
したがって、パレート最適性の懸念は超体積指標分析によって満たされた。
montの性能評価に9つのベンチマーク分類学習問題を用いた。
実験の結果,高い精度で分類問題に取り組むことができるMONTが得られた。
montの性能は,多層パーセプトロン,還元誤差プルーニングツリー,ナイーブベイズ分類器,決定木,サポートベクターマシンなど,よく知られた分類器のセットと比較して,いくつかの問題よりも優れていた。
さらに、遺伝子プログラミング、NSGA-II、NSGA-IIIを用いたMONTのトレーニングの3つのバージョンのパフォーマンスは、NSGA-IIIが最高のパレート最適解をもたらすことを示唆している。
関連論文リスト
- Compact NSGA-II for Multi-objective Feature Selection [0.24578723416255746]
特徴選択を,分類精度を最大化し,選択した特徴数の最小化を目的とした多目的バイナリ最適化タスクとして定義する。
最適な特徴を選択するために,2進圧縮型NSGA-II (CNSGA-II) アルゴリズムを提案する。
我々の知る限りでは、これは特徴選択のために提案された最初のコンパクトな多目的アルゴリズムである。
論文 参考訳(メタデータ) (2024-02-20T01:10:12Z) - A Mathematical Runtime Analysis of the Non-dominated Sorting Genetic
Algorithm III (NSGA-III) [9.853329403413701]
NSGA-II (Non-Maninated Sorting Genetic Algorithm II) は、実世界の応用において最も顕著な多目的進化アルゴリズムである。
NSGA-IIIは2つ以上の目的をうまく扱うことを目的としたNSGA-IIの改良である。
論文 参考訳(メタデータ) (2022-11-15T15:10:36Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Margin Optimal Classification Trees [0.0]
最適分類木(OCT)問題に対する新しい混合整数定式化法を提案する。
我々のモデルは、Margin Optimal Classification Tree (MARGOT)と呼ばれ、バイナリ分類のためのSupport Vector Machinesの一般化機能を利用する。
提案手法の解釈可能性を高めるため,超平面の局所的疎結合を誘導する特徴選択制約を含む2種類のMARGOTを解析した。
論文 参考訳(メタデータ) (2022-10-19T14:08:56Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Lookback for Learning to Branch [77.32867454769936]
Bipartite Graph Neural Networks (GNN) は、ディープラーニングに基づくMixed-Integer Linear Program (MILP) の重要コンポーネントであることが示されている。
近年の研究では、分岐とバウンド(B&B)の解法における分岐(可変選択)を置き換える上で、そのようなGNNの有効性が実証されている。
論文 参考訳(メタデータ) (2022-06-30T02:33:32Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Understanding Interlocking Dynamics of Cooperative Rationalization [90.6863969334526]
選択的合理化(Selective rationalization)は、ニューラルネットワークの出力を予測するのに十分な入力の小さなサブセットを見つけることによって、複雑なニューラルネットワークの予測を説明する。
このような合理化パラダイムでは,モデルインターロックという大きな問題が浮かび上がっている。
A2Rと呼ばれる新しい合理化フレームワークを提案し、アーキテクチャに第3のコンポーネントを導入し、選択とは対照的にソフトアテンションによって駆動される予測器を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:39:18Z) - Chaos inspired Particle Swarm Optimization with Levy Flight for Genome
Sequence Assembly [0.0]
本稿では、置換最適化問題に対処するため、新しいPSOの変種を提案する。
PSOはChaos and Levy Flight (ランダムウォークアルゴリズム)と統合され、アルゴリズムの探索と利用能力のバランスをとる。
論文で提案する他のPSOの変種と比較して,提案手法の性能を評価するための実証実験を行った。
論文 参考訳(メタデータ) (2021-10-20T15:24:27Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - On the Performance of Metaheuristics: A Different Perspective [0.0]
我々は,遺伝的アルゴリズム (GA), Particle Swarm Optimization (PSO), Artificial Bee Colony (ABC), Teaching-Learning-Based Optimization (TLBO), Cuckoo Optimization Algorithm (COA) のいくつかの基本的な進化的およびスワム知能メタヒューリスティックスについて検討した。
異なる特性を持つ20種類の最適化ベンチマーク関数について多数の実験が行われており、これらのメタヒューリスティックスの中での次の順位の他に、いくつかの基本的な結論が示されている。
論文 参考訳(メタデータ) (2020-01-24T09:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。