論文の概要: Neural networks with image recognition by pairs
- arxiv url: http://arxiv.org/abs/2506.06322v1
- Date: Thu, 29 May 2025 15:20:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 03:13:19.055233
- Title: Neural networks with image recognition by pairs
- Title(参考訳): 対による画像認識を用いたニューラルネットワーク
- Authors: Polad Geidarov,
- Abstract要約: 距離認識法に基づくニューラルネットワークは、厳密に決定されたアーキテクチャを持つ。
ニューロンの数、接続、およびウェイトとしきい値は、タスクの初期条件に基づいて解析的に計算される。
本稿では,重み値を計算する解析式を使わずに,従来の学習アルゴリズムを応用するために,これらのネットワークを変換する可能性について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks based on metric recognition methods have a strictly determined architecture. Number of neurons, connections, as well as weights and thresholds values are calculated analytically, based on the initial conditions of tasks: number of recognizable classes, number of samples, metric expressions used. This paper discusses the possibility of transforming these networks in order to apply classical learning algorithms to them without using analytical expressions that calculate weight values. In the received network, training is carried out by recognizing images in pairs. This approach simplifies the learning process and easily allows to expand the neural network by adding new images to the recognition task. The advantages of these networks, including such as: 1) network architecture simplicity and transparency; 2) training simplicity and reliability; 3) the possibility of using a large number of images in the recognition problem using a neural network; 4) a consistent increase in the number of recognizable classes without changing the previous values of weights and thresholds.
- Abstract(参考訳): 距離認識法に基づくニューラルネットワークは、厳密に決定されたアーキテクチャを持つ。
ニューロンの数、接続、およびウェイトとしきい値は、タスクの初期条件(認識可能なクラスの数、サンプルの数、使用されるメートル法表現)に基づいて解析的に計算される。
本稿では,重み値を計算する解析式を使わずに,従来の学習アルゴリズムを応用するために,これらのネットワークを変換する可能性について論じる。
受信したネットワークでは、ペア内の画像を認識してトレーニングを行う。
このアプローチは学習プロセスを単純化し、認識タスクに新しいイメージを追加することで、ニューラルネットワークを容易に拡張できる。
これらのネットワークの利点は以下のとおりである。
1) ネットワークアーキテクチャの単純性と透明性
2) 簡易性及び信頼性の訓練
3)ニューラルネットワークを用いた認識問題における多数の画像の利用の可能性
4)重みと閾値の以前の値を変更することなく、認識可能なクラス数が一貫した増加を示す。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Multi-Neuron Representations of Hierarchical Concepts in Spiking Neural Networks [0.0]
階層的概念が階層型ニューラルネットワークの3つのタイプでどのように表現できるかを説明する。
目的は、概念に関する部分的な情報が提示されたときや、ネットワーク内のいくつかのニューロンが失敗したときの認識を支援することである。
論文 参考訳(メタデータ) (2024-01-09T15:56:43Z) - IF2Net: Innately Forgetting-Free Networks for Continual Learning [49.57495829364827]
継続的な学習は、以前に学んだ知識に干渉することなく、新しい概念を漸進的に吸収することができる。
ニューラルネットワークの特性に触発され,本研究は,IF2Net(Innately Forgetting-free Network)の設計方法について検討した。
IF2Netは、1つのネットワークがテスト時にタスクのIDを告げることなく、本質的に無制限のマッピングルールを学習することを可能にする。
論文 参考訳(メタデータ) (2023-06-18T05:26:49Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - An analysis of the transfer learning of convolutional neural networks
for artistic images [1.9336815376402716]
巨大な自然画像データセットからのトランスファー学習は、アート分析アプリケーションの中核となっている。
本稿ではまず,ネットワークの内部表現を可視化する手法を用いて,ネットワークが芸術的イメージで何を学んだかを理解するための手がかりを提供する。
特徴空間とパラメータ空間の両方のメトリクスと、最大アクティベーション画像のセットで計算されたメトリクスのおかげで、学習プロセスが導入した変化を定量的に分析する。
論文 参考訳(メタデータ) (2020-11-05T09:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。