論文の概要: Lattice Representation Learning
- arxiv url: http://arxiv.org/abs/2006.13833v1
- Date: Wed, 24 Jun 2020 16:05:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:58:57.480920
- Title: Lattice Representation Learning
- Title(参考訳): 格子表現学習
- Authors: Luis A. Lastras
- Abstract要約: ユークリッド空間に埋め込まれた格子を利用する離散表現を学習するための理論とアルゴリズムを導入する。
格子表現は興味深い性質の組み合わせを持つ:a) 格子量子化を用いて明示的に計算できるが、導入したアイデアを使って効率的に学習することができる。
この記事では、トレーニングや推論時間に使用される式をリンクする新しい数学的結果や、2つの一般的なデータセットに対する実験的な検証など、最初の2つの特性を探索し、活用するための基盤の整備に焦点をあてる。
- 参考スコア(独自算出の注目度): 6.427169570069738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article we introduce theory and algorithms for learning discrete
representations that take on a lattice that is embedded in an Euclidean space.
Lattice representations possess an interesting combination of properties: a)
they can be computed explicitly using lattice quantization, yet they can be
learned efficiently using the ideas we introduce in this paper, b) they are
highly related to Gaussian Variational Autoencoders, allowing designers
familiar with the latter to easily produce discrete representations from their
models and c) since lattices satisfy the axioms of a group, their adoption can
lead into a way of learning simple algebras for modeling binary operations
between objects through symbolic formalisms, yet learn these structures also
formally using differentiation techniques. This article will focus on laying
the groundwork for exploring and exploiting the first two properties, including
a new mathematical result linking expressions used during training and
inference time and experimental validation on two popular datasets.
- Abstract(参考訳): 本稿では、ユークリッド空間に埋め込まれた格子を持つ離散表現を学習するための理論とアルゴリズムを紹介する。
格子表現は、プロパティの興味深い組み合わせを持っている。
a) 格子量子化を用いて明示的に計算することができるが、本論文で紹介するアイデアを用いて効率的に学習することができる。
b) それらはガウス変分オートエンコーダに強く関連しており、後者に慣れたデザイナーは、モデルから容易に離散表現を作成できる。
c) 格子は群の公理を満たしているため、それらの導入は、シンボリック形式を通じてオブジェクト間の二項演算をモデリングするための単純な代数を学習する方法につながりうるが、これらの構造も微分技術を用いて正式に学習することができる。
この記事では、トレーニングや推論時間に使用される式をリンクする新しい数学的結果や、2つの一般的なデータセットに対する実験的な検証など、最初の2つの特性を探索し、活用するための基盤の整備に焦点をあてる。
関連論文リスト
- Learning with Explanation Constraints [105.28493444100457]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Linear Spaces of Meanings: Compositional Structures in Vision-Language
Models [133.75426143436567]
事前学習された視覚言語モデル(VLM)からのデータ埋め込みにおける構成構造について検討する。
まず,幾何学的観点から構成構造を理解するための枠組みを提案する。
次に、これらの構造がVLM埋め込みの場合の確率論的に持つものを説明し、実際に発生する理由の直観を提供する。
論文 参考訳(メタデータ) (2023-02-28T08:11:56Z) - Granular Directed Rough Sets, Concept Organization and Soft Clustering [0.0]
上向きの粗集合は、著者によって以前の論文で紹介され、研究されている。
これは、驚くべき代数的意味論を持つ2つの異なる粒度の方向で、彼女によって拡張される。
この研究は、関連する領域において重要な理論的および実践的な応用が期待されている。
論文 参考訳(メタデータ) (2022-08-13T11:01:05Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Duality-Induced Regularizer for Semantic Matching Knowledge Graph
Embeddings [70.390286614242]
本稿では, 類似のセマンティクスを持つエンティティの埋め込みを効果的に促進する新しい正規化器(duality-induced RegulArizer (DURA))を提案する。
実験により、DURAは、最先端のセマンティックマッチングモデルの性能を一貫して改善することを示した。
論文 参考訳(メタデータ) (2022-03-24T09:24:39Z) - Data-Driven Learning of 3-Point Correlation Functions as Microstructure
Representations [8.978973486638253]
様々なミクロ構造が3点相関の簡潔な部分集合によって特徴づけられることを示す。
提案した表現は, 有効媒質理論に基づく材料特性の計算に利用することができる。
論文 参考訳(メタデータ) (2021-09-06T06:15:57Z) - Abelian Neural Networks [48.52497085313911]
まず、アベリア群演算のためのニューラルネットワークアーキテクチャを構築し、普遍近似特性を導出する。
連想対称の特徴づけを用いて、アベリア半群演算に拡張する。
固定単語埋め込み上でモデルをトレーニングし、元の word2vec よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-24T11:52:21Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。