論文の概要: Interactions that reshape the interfaces of the interacting parties
- arxiv url: http://arxiv.org/abs/2602.17917v1
- Date: Fri, 20 Feb 2026 00:25:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.191485
- Title: Interactions that reshape the interfaces of the interacting parties
- Title(参考訳): 相互作用する当事者のインターフェイスを再構築する相互作用
- Authors: David I. Spivak,
- Abstract要約: ポリノミアル関手はインタフェースを持つシステムをモデル化する: それぞれ、システムが生成できる出力を指定し、各出力に対して、それが受け入れる入力を指定する。
樹の圏 $mathbbOmathbfrgTr$ を、造形的に定義された射、テンソル積、内部hom で構成する。
本稿では、画像生成インタフェースが高解像度に成長するタイミングをフィードバックが決定するプログレッシブ生成対向ネットワークの概念を説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Polynomial functors model systems with interfaces: each polynomial specifies the outputs a system can produce and, for each output, the inputs it accepts. The bicategory $\mathbb{O}\mathbf{rg}$ of dynamic organizations \cite{spivak2021learners} gives a notion of state-driven interaction patterns that evolves over time, but each system's interface remains fixed throughout the interaction. Yet in many systems, the outputs sent and inputs received can reshape the interface itself: a cell differentiating in response to chemical signals gains or loses receptors; a sensor damaged by its input loses a channel; a neural network may grow its output resolution during training. Here we introduce *polynomial trees*, elements of the terminal $(u\triangleleft u)$-coalgebra where $u$ is the polynomial associated to a universe of sets, to model such systems: a polynomial tree is a coinductive tree whose nodes carry polynomials, and in which each round of interaction -- an output chosen and an input received -- determines a child tree, hence the next interface. We construct a monoidal closed category $\mathbf{PolyTr}$ of polynomial trees, with coinductively-defined morphisms, tensor product, and internal hom. We then build a bicategory $\mathbb{O}\mathbf{rgTr}$ generalizing $\mathbb{O}\mathbf{rg}$, whose hom-categories parametrize morphisms by state sets with coinductive action-and-update data. We provide a locally fully faithful functor $\mathbb{O}\mathbf{rg}\to\mathbb{O}\mathbf{rgTr}$ via constant trees, those for which the interfaces do not change through time. We illustrate the generalization by suggesting a notion of progressive generative adversarial networks, where gradient feedback determines when the image-generation interface grows to a higher resolution.
- Abstract(参考訳): 各多項式は、システムが生成できる出力を指定し、各出力に対して、それが受け入れる入力を指定します。
動的組織における $\mathbb{O}\mathbf{rg}$ of dynamic organization \cite{spivak2021learners} は、時間とともに進化する状態駆動型相互作用パターンの概念を提供するが、各システムのインターフェースは相互作用を通して固定されている。
しかし、多くのシステムでは、送信された出力と入力はインターフェース自体を再構築することができる:化学信号に応答して分化する細胞は受容体を獲得または失う;入力によって損傷されたセンサーはチャネルを失う;ニューラルネットワークはトレーニング中に出力の解像度を増大させる。
ここでは *polynomial tree*, the element of the terminal $(u\triangleleft u)$-coalgebra where $u$ is associated to a universe of set, to model such systems: a polynomial tree is a coinductive tree that node carrying polynomials, and in each round of interaction -- a output selected and an input received -- が子木を決定するので次のインターフェイスが決定される。
多項式木のモノイド閉圏 $\mathbf{PolyTr}$ を構成する。
次に、二圏 $\mathbb{O}\mathbf{rgTr}$ を一般化して $\mathbb{O}\mathbf{rg}$ を作る。
局所的に完全忠実な関手 $\mathbb{O}\mathbf{rg}\to\mathbb{O}\mathbf{rgTr}$ を定数木を通して提供する。
画像生成インタフェースが高分解能に成長した際の勾配フィードバックが決定されるプログレッシブ・ジェネレーティブ・逆数ネットワークの概念を提案する。
関連論文リスト
- $p$-Adic Polynomial Regression as Alternative to Neural Network for Approximating $p$-Adic Functions of Many Variables [55.2480439325792]
任意の精度で連続関数を近似できる回帰モデルを構築している。
提案モデルは、ニューラルネットワークアーキテクチャに基づく$p$-adicモデルの簡単な代替と見なすことができる。
論文 参考訳(メタデータ) (2025-03-30T15:42:08Z) - A Quotient Homology Theory of Representation in Neural Networks [0.0]
各ポリヘドロンと入力多様体の交叉が凸であれば、ニューラル表現のホモロジー群は商ホモロジー群 $H_k(Phi(mathcalM)) simeq H_k(mathcalM/mathcalO_Phi)$ に同型である。
線形計画法とユニオン・フィンド・アルゴリズムを用いて重なり合う分解を計算する手法を開発した。
論文 参考訳(メタデータ) (2025-02-03T13:52:17Z) - Polynomial Threshold Functions of Bounded Tree-Width: Some Explainability and Complexity Aspects [0.6554326244334868]
多変量体のツリー幅は、ハイパーグラフのツリー幅であり、その項に対応するハイパーエッジを持つ。
有界木幅の符号としてのブール関数の表現はしきい値表現と呼ばれる。
論文 参考訳(メタデータ) (2025-01-14T18:28:08Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の勾配勾配勾配学習問題について検討する。
SGDに基づくアルゴリズムにより最適化された2層ニューラルネットワークは、情報指数に支配されない複雑さで$f_*$を学習する。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - Universal Representation of Permutation-Invariant Functions on Vectors
and Tensors [11.345796608258434]
我々の研究の主な対象は、様々な大きさの入力に対する多元関数、すなわち置換不変関数である。
citezaheer 2017deepによって提案されたDeep Setsは、和分解可能なモデルを通じてスカラー上の連続的多重集合関数の指数表現を提供する。
普遍表現は連続かつ不連続な多重集合函数に対して保証されるが、潜在空間次元は$O(ND)$である。
論文 参考訳(メタデータ) (2023-10-20T22:00:59Z) - Shallow neural network representation of polynomials [91.3755431537592]
d+1+sum_r=2Rbinomr+d-1d-1[binomr+d-1d-1d-1[binomr+d-1d-1d-1]binomr+d-1d-1d-1[binomr+d-1d-1d-1]binomr+d-1d-1d-1]
論文 参考訳(メタデータ) (2022-08-17T08:14:52Z) - Training Fully Connected Neural Networks is $\exists\mathbb{R}$-Complete [4.170994234169557]
InpiricalRiskmization(英語版)として知られる、与えられたデータポイントのセットに可能な限り適合する2層完全連結ニューラルネットワークの重みとバイアスを求める問題を考察する。
任意のデータポイントが有理である場合でも、いくつかのインスタンスを最適に訓練できるウェイトとして、任意の大きな次数の代数数が必要であることを証明します。
この結果、Basu, Mianjy, Mukherjee [ICLR 2018]のような検索アルゴリズムは、$mathsfNP=existsでない限り、複数の出力次元を持つネットワークでは不可能である。
論文 参考訳(メタデータ) (2022-04-04T10:28:11Z) - Learners' Languages [0.0]
バックプロップ・アズ・ファクター(Backprop as functor)では、深層学習の基本的な要素である降下とバックプロパゲーションが、強いモノノイド関手 Para(Euc)$to$Learn として概念化できることが示されている。
ここでは、Slens は 1 変数の関手の圏である Poly の完全な部分圏であり、関手 $Amapsto AyA$ を通して観察する。
論文 参考訳(メタデータ) (2021-03-01T18:34:00Z) - Learning Over-Parametrized Two-Layer ReLU Neural Networks beyond NTK [58.5766737343951]
2層ニューラルネットワークを学習する際の降下のダイナミクスについて考察する。
過度にパラメータ化された2層ニューラルネットワークは、タンジェントサンプルを用いて、ほとんどの地上で勾配損失を許容的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-09T07:09:28Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。