論文の概要: Learning Functors using Gradient Descent
- arxiv url: http://arxiv.org/abs/2009.06837v1
- Date: Tue, 15 Sep 2020 02:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 05:50:11.451949
- Title: Learning Functors using Gradient Descent
- Title(参考訳): グラディエントDescentを用いたファクタの学習
- Authors: Bruno Gavranovi\'c
- Abstract要約: 我々は、CycleGANと呼ばれるニューラルネットワークシステムの周りにカテゴリ理論のフォーマリズムを構築している。
サイクル整合性の強制は、このカテゴリーにおける構成不変量の強制に等しいことを示す。
我々は、ペアデータなしで画像からのオブジェクトの挿入と削除を学習できる新しいニューラルネットワークシステムを設計する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are a general framework for differentiable optimization which
includes many other machine learning approaches as special cases. In this paper
we build a category-theoretic formalism around a neural network system called
CycleGAN. CycleGAN is a general approach to unpaired image-to-image translation
that has been getting attention in the recent years. Inspired by categorical
database systems, we show that CycleGAN is a "schema", i.e. a specific category
presented by generators and relations, whose specific parameter instantiations
are just set-valued functors on this schema. We show that enforcing
cycle-consistencies amounts to enforcing composition invariants in this
category. We generalize the learning procedure to arbitrary such categories and
show a special class of functors, rather than functions, can be learned using
gradient descent. Using this framework we design a novel neural network system
capable of learning to insert and delete objects from images without paired
data. We qualitatively evaluate the system on the CelebA dataset and obtain
promising results.
- Abstract(参考訳): ニューラルネットワークは、特に多くの機械学習アプローチを含む、微分可能最適化の一般的なフレームワークである。
本稿では,CycleGANと呼ばれるニューラルネットワークシステムを中心に,カテゴリ理論の形式性を構築する。
CycleGANは、近年注目を集めている画像から画像への翻訳の一般的なアプローチである。
分類的データベースシステムから着想を得て、cyclegan は "schema" であることを示した。すなわち、特定のパラメータインスタンス化が単にこのスキーマ上の集合値関手であるジェネレータとリレーションによって提示される特定のカテゴリである。
サイクル整合性の強制は、このカテゴリーにおける構成不変量の強制に等しいことを示す。
学習手順を任意のカテゴリに一般化し、勾配降下を用いて学習できる関数ではなく、特殊クラスの関手を示す。
このフレームワークを用いて,画像からのオブジェクトの挿入および削除を学習可能な,新たなニューラルネットワークシステムを設計する。
celebaデータセット上でシステムを定性的に評価し,有望な結果を得る。
関連論文リスト
- Clustering Inductive Biases with Unrolled Networks [4.47196217712431]
本稿では,2部グラフのラプラシア二次形式を通してスペクトルクラスタリングを行うために,潜在表現を暗黙的に局所的に整理したオートエンコーダアーキテクチャ(WLSC)を提案する。
我々の正規化は、ある種の刺激のクラスに対する受容野の早期特殊化と解釈できることを示す。
論文 参考訳(メタデータ) (2023-11-30T02:02:30Z) - Sparse, Geometric Autoencoder Models of V1 [2.491226380993217]
本稿では,潜在表現が暗黙的に暗黙的に,スペクトルクラスタリングのために局所的に整理されたオートエンコーダアーキテクチャを提案する。
オートエンコーダの目的関数はスパース符号化フレームワークの中核的な概念を保ちつつも、受容領域の微分を記述するための有望な経路を提供することを示す。
論文 参考訳(メタデータ) (2023-02-22T06:07:20Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Neural Eigenfunctions Are Structured Representation Learners [93.53445940137618]
本稿ではニューラル固有写像という,構造化された適応長の深部表現を提案する。
本稿では,データ拡張設定における正の関係から固有関数が導出される場合,NeuralEFを適用することで目的関数が得られることを示す。
画像検索システムにおいて,適応長符号のような表現を用いることを実証する。
論文 参考訳(メタデータ) (2022-10-23T07:17:55Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - A Deep Learning Based Ternary Task Classification System Using Gramian
Angular Summation Field in fNIRS Neuroimaging Data [0.15229257192293197]
機能近赤外分光法(FNIRS)は、血流パターンを研究するために用いられる非侵襲的、経済的手法である。
提案手法は,生のfNIRS時系列データをGramian Angular Summation Fieldを用いた画像に変換する。
深層畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)ベースのアーキテクチャは、メンタル算術、運動画像、アイドル状態などのタスク分類に使用される。
論文 参考訳(メタデータ) (2021-01-14T22:09:35Z) - Class-Attentive Diffusion Network for Semi-Supervised Classification [27.433021864424266]
Class-Attentive Diffusion Network (CAD-Net) は、半教師付き分類のためのグラフニューラルネットワークである。
本稿では,Kホップ近傍のノードを適応的に集約する新しいアグリゲーション手法を提案する。
提案手法の有効性を連続的に示す7つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-18T01:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。