論文の概要: Lambek pregroups are Frobenius spiders in preorders
- arxiv url: http://arxiv.org/abs/2105.03038v2
- Date: Mon, 10 May 2021 20:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 11:16:52.765589
- Title: Lambek pregroups are Frobenius spiders in preorders
- Title(参考訳): ランベック前群は序列のフロベニウスクモである
- Authors: Dusko Pavlovic
- Abstract要約: スパイダー(Spider)は、数学、物理学、計算機科学の基本的な構造である*特殊フロベニウス代数*のあだ名である。
プリグループ自身は、プリオーダードリレーションのカテゴリーで尖ったスパイダーとして特徴付けられることが判明しました。
出現した構成フレームワークは、機械学習とデータ分析の基礎構造を理解し、適用する新しい方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: "Spider" is a nickname of *special Frobenius algebras*, a fundamental
structure from mathematics, physics, and computer science. *Pregroups* are a
fundamental structure from linguistics. Pregroups and spiders have been used
together in natural language processing: one for syntax, the other for
semantics. It turns out that pregroups themselves can be characterized as
pointed spiders in the category of preordered relations, where they naturally
arise from grammars. The other way around preordered spider algebras in general
can be characterized as unions of pregroups. This extends the characterization
of relational spider algebras as disjoint unions of groups. The compositional
framework that emerged with the results suggests new ways to understand and
apply the basis structures in machine learning and data analysis.
- Abstract(参考訳): スパイダー(Spider)は、数学、物理学、計算機科学の基本構造である*特殊フロベニウス代数*のあだ名である。
※前群*は言語学の基本構造である。
プリグループとスパイダーは自然言語処理で一緒に使われてきた:一つは構文、もう一つは意味論である。
先行群自体が、文法から自然に生じる事前順序付き関係の圏における尖ったクモとして特徴づけられることが判明した。
一般の順序付きクモ環の周りの別の方法は、前群の和として特徴づけることができる。
これは関係的なスパイダー代数を群の不連結和として特徴づける。
その結果から,機械学習とデータ解析の基盤構造を理解し,適用するための新たな手法が示唆された。
関連論文リスト
- How to Plant Trees in Language Models: Data and Architectural Effects on
the Emergence of Syntactic Inductive Biases [28.58785395946639]
事前学習は、微調整後にタスクを実行する際に、階層的な構文的特徴に依存するように言語モデルを教えることができることを示す。
アーキテクチャの特徴(深さ、幅、パラメータ数)と、事前学習コーパスのジャンルとサイズに焦点を当てる。
論文 参考訳(メタデータ) (2023-05-31T14:38:14Z) - Linear Spaces of Meanings: Compositional Structures in Vision-Language
Models [110.00434385712786]
事前学習された視覚言語モデル(VLM)からのデータ埋め込みにおける構成構造について検討する。
まず,幾何学的観点から構成構造を理解するための枠組みを提案する。
次に、これらの構造がVLM埋め込みの場合の確率論的に持つものを説明し、実際に発生する理由の直観を提供する。
論文 参考訳(メタデータ) (2023-02-28T08:11:56Z) - Compositional Generalization Requires Compositional Parsers [69.77216620997305]
直近のCOGSコーパスにおける構成原理によって導かれるシーケンス・ツー・シーケンスモデルとモデルを比較した。
構造一般化は構成一般化の重要な尺度であり、複雑な構造を認識するモデルを必要とする。
論文 参考訳(メタデータ) (2022-02-24T07:36:35Z) - Learning Algebraic Representation for Systematic Generalization in
Abstract Reasoning [109.21780441933164]
推論における体系的一般化を改善するためのハイブリッドアプローチを提案する。
我々はRaven's Progressive Matrices (RPM) の抽象的空間時間課題に対する代数的表現を用いたプロトタイプを紹介する。
得られた代数的表現は同型によって復号化して解を生成することができることを示す。
論文 参考訳(メタデータ) (2021-11-25T09:56:30Z) - Learning Algebraic Recombination for Compositional Generalization [71.78771157219428]
合成一般化のための代数的組換え学習のためのエンドツーエンドニューラルモデルLeARを提案する。
主要な洞察は、意味解析タスクを潜在構文代数学と意味代数学の間の準同型としてモデル化することである。
2つの現実的・包括的構成一般化の実験は、我々のモデルの有効性を実証している。
論文 参考訳(メタデータ) (2021-07-14T07:23:46Z) - Improving Compositional Generalization in Classification Tasks via
Structure Annotations [33.90268697120572]
人間は構成を一般化する能力は大きいが、最先端のニューラルモデルはそれを行うのに苦労している。
まず、自然言語のシーケンス・ツー・シーケンス・データセットを、合成の一般化も必要とする分類データセットに変換する方法について検討する。
第二に、構造的ヒントを提供すること(特にトランスフォーマーモデルの注意マスクとしてパースツリーとエンティティリンクを提供すること)は、構成の一般化に役立つことを示す。
論文 参考訳(メタデータ) (2021-06-19T06:07:27Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - The Safari of Update Structures: Visiting the Lens and Quantum
Enclosures [0.0]
我々は、非常に良好なレンズの一般化であることを示すために、更新構造の概念に基づいて構築する。
更新構造は量子オブザーバブルを捉えるのに十分な一般性を持つことを示す。
この研究は、これまでは運用モチベーションの一般的なクラスにおいて、異なる研究領域に更新構造が配置されていたため、興味深い。
論文 参考訳(メタデータ) (2020-05-11T17:51:38Z) - Hierarchical Human Parsing with Typed Part-Relation Reasoning [179.64978033077222]
このタスクでは、人体構造をモデル化する方法が中心的なテーマである。
深層グラフネットワークの表現能力と階層的人間構造を同時に活用することを模索する。
論文 参考訳(メタデータ) (2020-03-10T16:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。