論文の概要: Neuroevolutionary algorithms driven by neuron coverage metrics for
semi-supervised classification
- arxiv url: http://arxiv.org/abs/2303.02801v1
- Date: Sun, 5 Mar 2023 23:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:49:52.180863
- Title: Neuroevolutionary algorithms driven by neuron coverage metrics for
semi-supervised classification
- Title(参考訳): 半教師付き分類のためのニューロン被覆指標による神経進化アルゴリズム
- Authors: Roberto Santana, Ivan Hidalgo-Cenalmor, Unai Garciarena, Alexander
Mendiburu, Jose Antonio Lozano
- Abstract要約: 一部の機械学習アプリケーションでは、ラベル付けされていないインスタンスが豊富であるのに対して、教師付き分類のためのラベル付きインスタンスの可用性は制限されている。
本稿では、ニューラルネットワークアーキテクチャ上で計算されたニューラルネットワークカバレッジメトリクスを用いて、未ラベルのインスタンスを利用する神経進化的アプローチを提案する。
- 参考スコア(独自算出の注目度): 60.60571130467197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In some machine learning applications the availability of labeled instances
for supervised classification is limited while unlabeled instances are
abundant. Semi-supervised learning algorithms deal with these scenarios and
attempt to exploit the information contained in the unlabeled examples. In this
paper, we address the question of how to evolve neural networks for
semi-supervised problems. We introduce neuroevolutionary approaches that
exploit unlabeled instances by using neuron coverage metrics computed on the
neural network architecture encoded by each candidate solution. Neuron coverage
metrics resemble code coverage metrics used to test software, but are oriented
to quantify how the different neural network components are covered by test
instances. In our neuroevolutionary approach, we define fitness functions that
combine classification accuracy computed on labeled examples and neuron
coverage metrics evaluated using unlabeled examples. We assess the impact of
these functions on semi-supervised problems with a varying amount of labeled
instances. Our results show that the use of neuron coverage metrics helps
neuroevolution to become less sensitive to the scarcity of labeled data, and
can lead in some cases to a more robust generalization of the learned
classifiers.
- Abstract(参考訳): 一部の機械学習アプリケーションでは、教師付き分類のためのラベル付きインスタンスの可用性は限られているが、ラベルなしインスタンスは豊富である。
半教師付き学習アルゴリズムはこれらのシナリオに対処し、ラベルのない例に含まれる情報を活用する。
本稿では,半教師付き問題に対するニューラルネットワークの進化に関する問題に対処する。
各候補解で符号化されたニューラルネットワークアーキテクチャで計算されたニューロンカバレッジメトリクスを用いて,ラベルなしインスタンスを利用する神経進化的アプローチを提案する。
神経カバレッジメトリクスは、ソフトウェアをテストするために使用されるコードカバレッジメトリクスに似ているが、異なるニューラルネットワークコンポーネントがテストインスタンスによってカバーされている方法の定量化を目的としている。
神経進化的アプローチでは、ラベル付き例で計算された分類精度とラベルなし例を用いて評価したニューロン被覆測定値を組み合わせた適合度関数を定義する。
ラベル付きインスタンスの量が異なる半教師付き問題に対するこれらの関数の影響を評価する。
以上の結果から,神経細胞被覆測定値を用いることで,ラベル付きデータの不足に対する神経進化の感度が低下し,学習した分類器のより強固な一般化に繋がる可能性が示唆された。
関連論文リスト
- Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - Revisiting Gaussian Neurons for Online Clustering with Unknown Number of
Clusters [0.0]
参照するクラスタ数の最大限のオンラインクラスタリングを行う、新しいローカルラーニングルールが提示される。
実験結果は,学習パラメータの安定性を多数のトレーニングサンプルで実証した。
論文 参考訳(メタデータ) (2022-05-02T14:01:40Z) - Fault-Tolerant Neural Networks from Biological Error Correction Codes [45.82537918529782]
哺乳類大脳皮質の格子細胞では、アナログ誤差補正符号が神経スパイクノイズから状態を保護するために観測されている。
ここでは、これらの生物学的エラー訂正符号を用いて、各ニューロンの欠陥がシャープしきい値以下である場合、信頼性の高い計算を実現する、普遍的なフォールトトレラントニューラルネットワークを開発する。
フォールトからフォールトトレラントニューラルネットワークへの位相遷移の発見は、大脳皮質における信頼性の高い計算のメカニズムを示唆している。
論文 参考訳(メタデータ) (2022-02-25T18:55:46Z) - Regularization by Misclassification in ReLU Neural Networks [3.288086999241324]
SGDの変種によって訓練されたReLUニューラルネットワークの暗黙バイアスについて検討し、各ステップで確率$p$でラベルをランダムラベルに変更する。
ラベルノイズは、典型的な入力の場合、少数のニューロンがアクティブであり、隠れた層の発火パターンはスペーサーである。
論文 参考訳(メタデータ) (2021-11-03T11:42:38Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - SeReNe: Sensitivity based Regularization of Neurons for Structured
Sparsity in Neural Networks [13.60023740064471]
SeReNeはスパーストポロジを構造で学習する方法である。
ニューロンの感度をネットワーク出力の変動として定義する。
コスト関数のニューロン感度を正規化用語に含めることで、低感度でニューロンをプーンすることができる。
論文 参考訳(メタデータ) (2021-02-07T10:53:30Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。