論文の概要: Fiber Bundle Morphisms as a Framework for Modeling Many-to-Many Maps
- arxiv url: http://arxiv.org/abs/2203.08189v1
- Date: Tue, 15 Mar 2022 18:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 15:29:43.874261
- Title: Fiber Bundle Morphisms as a Framework for Modeling Many-to-Many Maps
- Title(参考訳): 多対多マップのモデリングフレームワークとしての繊維束形態
- Authors: Elizabeth Coda, Nico Courts, Colby Wight, Loc Truong, WoongJo Choi,
Charles Godfrey, Tegan Emerson, Keerti Kappagantula, Henry Kvinge
- Abstract要約: ファイババンドルフレームワークを用いて、多対一のプロセスをより良くモデル化する方法を説明します。
繊維束の射が、多対多のプロセスの構造を自然に捉えたモデルを構築するためのテンプレートをいかに提供するかを示す。
- 参考スコア(独自算出の注目度): 1.9461577147893465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While it is not generally reflected in the `nice' datasets used for
benchmarking machine learning algorithms, the real-world is full of processes
that would be best described as many-to-many. That is, a single input can
potentially yield many different outputs (whether due to noise, imperfect
measurement, or intrinsic stochasticity in the process) and many different
inputs can yield the same output (that is, the map is not injective). For
example, imagine a sentiment analysis task where, due to linguistic ambiguity,
a single statement can have a range of different sentiment interpretations
while at the same time many distinct statements can represent the same
sentiment. When modeling such a multivalued function $f: X \rightarrow Y$, it
is frequently useful to be able to model the distribution on $f(x)$ for
specific input $x$ as well as the distribution on fiber $f^{-1}(y)$ for
specific output $y$. Such an analysis helps the user (i) better understand the
variance intrinsic to the process they are studying and (ii) understand the
range of specific input $x$ that can be used to achieve output $y$. Following
existing work which used a fiber bundle framework to better model many-to-one
processes, we describe how morphisms of fiber bundles provide a template for
building models which naturally capture the structure of many-to-many
processes.
- Abstract(参考訳): 機械学習アルゴリズムのベンチマークに使用される‘nice’データセットには一般的に反映されていないが、現実は多対多と表現されるプロセスで溢れている。
すなわち、単一の入力は、多くの異なる出力(ノイズ、不完全測定、またはプロセスの内在的確率)を出力し、多くの異なる入力は同じ出力(つまり、写像は射出的ではない)を出力することができる。
例えば、言語的曖昧さのため、一つの文が様々な感情解釈を持ち、同時に多くの異なる文が同じ感情を表現することができるような感情分析タスクを想像してください。
そのような多値関数 $f: X \rightarrow Y$ をモデル化する場合、$f で分布をモデル化できることがしばしば有用である。
(x)特定の入力$x$とファイバー$f^{-1}上の分布について
(y)$ 特定の出力は $y$ である。
このような分析はユーザーを助ける
(i)研究している過程に固有のばらつきをよりよく理解し、
(ii)出力$y$を達成するために使用できる特定の入力$x$の範囲を理解する。
ファイババンドルフレームワークを多対一プロセスのモデル化に用いた既存の研究に続いて、ファイババンドルの射が、多対多プロセスの構造を自然に捉えたモデルを構築するためのテンプレートを提供する方法について述べる。
関連論文リスト
- Agnostically Learning Multi-index Models with Queries [54.290489524576756]
本稿では,ガウス分布下での非依存学習の課題に対するクエリアクセスのパワーについて検討する。
クエリアクセスは、MIMを不可知的に学習するためのランダムな例よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2023-12-27T15:50:47Z) - Idempotent Generative Network [61.78905138698094]
本稿では,ニューラルネットワークを等質にトレーニングした生成モデリングのための新しい手法を提案する。
一等演算子は、初期アプリケーションを超えて結果を変更せずに順次適用できる演算子である。
ターゲット分布とソース分布の両方からの入力を処理することにより、モデルがターゲット多様体に完全に破損または修正されたデータを投影することがわかった。
論文 参考訳(メタデータ) (2023-11-02T17:59:55Z) - Simplifying and Understanding State Space Models with Diagonal Linear
RNNs [56.33053691749856]
本研究は、離散化ステップを解消し、バニラ対角線形RNNに基づくモデルを提案する。
概念的にはるかに単純であるにもかかわらず、$mathrmDLR$は以前提案したSSMと同じくらいのパフォーマンスを示す。
また、合成シーケンス・ツー・シーケンス・タスクのスイートによって、SSMとアテンションベースモデルの表現性も特徴付ける。
論文 参考訳(メタデータ) (2022-12-01T18:53:06Z) - Diffusion models as plug-and-play priors [98.16404662526101]
我々は、事前の$p(mathbfx)$と補助的な制約である$c(mathbfx,mathbfy)$からなるモデルにおいて、高次元データ$mathbfx$を推論する問題を考える。
拡散モデルの構造は,異なるノイズ量に富んだ定性デノナイジングネットワークを通じて,微分を反復することで近似推論を行うことができる。
論文 参考訳(メタデータ) (2022-06-17T21:11:36Z) - Bundle Networks: Fiber Bundles, Local Trivializations, and a Generative
Approach to Exploring Many-to-one Maps [0.0]
本稿では,(微分)トポロジからのファイバーバンドルの概念に基づく,新しい生成アーキテクチャであるバンドルネットワークを提案する。
BundleNetsは、局所的な自明化の概念を利用して、空間を局所的に製品空間に分解し、マップの多対一の性質をきれいにエンコードする。
論文 参考訳(メタデータ) (2021-10-13T18:54:18Z) - For Manifold Learning, Deep Neural Networks can be Locality Sensitive
Hash Functions [14.347610075713412]
ニューラル表現は、各入力を埋め込みにマップするLSHライクな関数として見ることができる。
この行動の重要な結果は、見えないクラスへのワンショット学習です。
論文 参考訳(メタデータ) (2021-03-11T18:57:47Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z) - Classical-Quantum Separations in Certain Classes of Boolean Functions--
Analysis using the Parity Decision Trees [3.652509571098291]
まず、$n$変数上のQuery Friendly(QF)関数を、最小決定論的クエリ複雑性を持つ関数として定義します。
各$n$に対して、$D(f)=Q_E(f)$ となるような非分離QF関数のクラスが存在することを示す。
関連する取り組みとして,Maiorana McFarland (M-M) 型ベント関数についても検討する。
論文 参考訳(メタデータ) (2020-04-27T16:58:39Z) - On the Modularity of Hypernetworks [103.1147622394852]
構造化対象関数の場合、ハイパーネットワークにおけるトレーニング可能なパラメータの総数は、標準ニューラルネットワークのトレーニング可能なパラメータの数や埋め込み法よりも桁違いに小さいことを示す。
論文 参考訳(メタデータ) (2020-02-23T22:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。