論文の概要: Universal Topological Regularities of Syntactic Structures: Decoupling
Efficiency from Optimization
- arxiv url: http://arxiv.org/abs/2302.00129v1
- Date: Tue, 31 Jan 2023 22:35:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 18:20:38.070005
- Title: Universal Topological Regularities of Syntactic Structures: Decoupling
Efficiency from Optimization
- Title(参考訳): 構文構造の普遍トポロジカル正則性:効率と最適化の分離
- Authors: Ferm\'in Moscoso del Prado Mart\'in
- Abstract要約: 本研究では、構文グラフのトポロジが、それらの出現に繋がる過程の痕跡を明らかにする方法について検討する。
シンタクティック構造における新しい普遍的規則性について報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human syntactic structures are usually represented as graphs. Much research
has focused on the mapping between such graphs and linguistic sequences, but
less attention has been paid to the shapes of the graphs themselves: their
topologies. This study investigates how the topologies of syntactic graphs
reveal traces of the processes that led to their emergence. I report a new
universal regularity in syntactic structures: Their topology is communicatively
efficient above chance. The pattern holds, without exception, for all 124
languages studied, across linguistic families and modalities (spoken, written,
and signed). This pattern can arise from a process optimizing for communicative
efficiency or, alternatively, by construction, as a by-effect of a sublinear
preferential attachment process reflecting language production mechanisms known
from psycholinguistics. This dual explanation shows how communicative
efficiency, per se, does not require optimization. Among the two options,
efficiency without optimization offers the better explanation for the new
pattern.
- Abstract(参考訳): ヒトの構文構造は通常グラフとして表される。
多くの研究はそのようなグラフと言語列のマッピングに焦点を合わせてきたが、グラフ自体の形状(トポロジー)にはあまり注目されなかった。
本研究では,構文グラフのトポロジーが,それらの出現に繋がる過程の痕跡を明らかにする方法について検討する。
構文構造における新しい普遍的正則性について報告する: そのトポロジーは偶然よりもコミュニケーション的に効率的である。
このパターンは例外なく、研究されている124言語すべてに対して、言語家族やモダリティ(spoken, written, signed)にまたがる。
このパターンは、コミュニケーション効率を最適化するプロセスや、あるいは構築によって、精神言語学から知られている言語生成機構を反映したサブ線形優先アタッチメントプロセスの副産物として生じる。
この二重説明は、通信効率がいかに最適化を必要としないかを示している。
2つの選択肢のうち、最適化なしの効率性は、新しいパターンのより良い説明を提供する。
関連論文リスト
- S$^2$GSL: Incorporating Segment to Syntactic Enhanced Graph Structure Learning for Aspect-based Sentiment Analysis [19.740223755240734]
ABSAのための構文強化グラフ構造学習にセグメンテーションを取り入れた2$GSLを提案する。
S$2$GSLはセグメント対応セマンティックグラフ学習と構文ベースの潜在グラフ学習を備えている。
論文 参考訳(メタデータ) (2024-06-05T03:44:35Z) - Bayesian Optimization of Functions over Node Subsets in Graphs [14.670181702535825]
グラフ上での最適化のための新しいフレームワークを提案する。
元のグラフの各$k$-nodeを、新しいグラフのノードにマップします。
人工環境と実環境環境の両方における実験により,提案したBOフレームワークの有効性が示された。
論文 参考訳(メタデータ) (2024-05-24T00:24:55Z) - Semantic Random Walk for Graph Representation Learning in Attributed
Graphs [2.318473106845779]
本稿では,2つの異種ソースの結合最適化を高次近接ベースフレームワークに定式化するための新しい意味グラフ表現(SGR)法を提案する。
高次トポロジ確率を考慮した従来の埋め込み法は、新しく構築されたグラフに容易に適用でき、ノードと属性の両方の表現を学習することができる。
学習された属性の埋め込みは、セマンティック指向の推論タスクを効果的にサポートし、グラフの深いセマンティックを明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-05-11T02:35:16Z) - Variational Cross-Graph Reasoning and Adaptive Structured Semantics
Learning for Compositional Temporal Grounding [143.5927158318524]
テンポラルグラウンドティング(Temporal grounding)とは、クエリ文に従って、未編集のビデオから特定のセグメントを特定するタスクである。
新たに構成時間グラウンドタスクを導入し,2つの新しいデータセット分割を構築した。
ビデオや言語に内在する構造的意味論は、構成的一般化を実現する上で重要な要素である、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-22T08:02:23Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Learning to Learn Graph Topologies [27.782971146122218]
ノードデータからグラフ構造へのマッピングを学習する(L2O)。
このモデルは、ノードデータとグラフサンプルのペアを使ってエンドツーエンドでトレーニングされる。
合成データと実世界のデータの両方の実験により、我々のモデルは、特定のトポロジ特性を持つグラフを学習する際の古典的反復アルゴリズムよりも効率的であることが示された。
論文 参考訳(メタデータ) (2021-10-19T08:42:38Z) - Joint Network Topology Inference via Structured Fusion Regularization [70.30364652829164]
結合ネットワークトポロジ推論は、異種グラフ信号から複数のグラフラプラシア行列を学習する標準的な問題を表す。
新規な構造化融合正規化に基づく一般グラフ推定器を提案する。
提案するグラフ推定器は高い計算効率と厳密な理論保証の両方を享受できることを示す。
論文 参考訳(メタデータ) (2021-03-05T04:42:32Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。