論文の概要: Phase transitions in a decentralized graph-based approach to human
language
- arxiv url: http://arxiv.org/abs/2003.02639v1
- Date: Wed, 4 Mar 2020 15:07:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:28:27.970502
- Title: Phase transitions in a decentralized graph-based approach to human
language
- Title(参考訳): 分散グラフに基づく人間の言語へのアプローチにおける相転移
- Authors: Javier Vera, Felipe Urbina and Wenceslao Palma
- Abstract要約: Zipfianプロパティの生成のための分散言語ゲームモデルを提案する。
数値シミュレーションは、初期乱れ状態から3つの相への相転移が言語形成に現れることを示している。
以上の結果から,言語におけるZipfianの性質は,二分詞意味マッピングを付与したエージェント間の分散言語相互作用によってもたらされると考えられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zipf's law establishes a scaling behavior for word-frequencies in large text
corpora. The appearance of Zipfian properties in human language has been
previously explained as an optimization problem for the interests of speakers
and hearers. On the other hand, human-like vocabularies can be viewed as
bipartite graphs. The aim here is double: within a bipartite-graph approach to
human vocabularies, to propose a decentralized language game model for the
formation of Zipfian properties. To do this, we define a language game, in
which a population of artificial agents is involved in idealized linguistic
interactions. Numerical simulations show the appearance of a phase transition
from an initially disordered state to three possible phases for language
formation. Our results suggest that Zipfian properties in language seem to
arise partly from decentralized linguistic interactions between agents endowed
with bipartite word-meaning mappings.
- Abstract(参考訳): Zipfの法則は、大きなテキストコーパスにおける単語頻度のスケーリング行動を確立する。
人間の言語におけるZipfian特性の出現は、これまで話者や聞き手の興味を引くための最適化問題として説明されてきた。
一方、人間に似た語彙は二部グラフと見なすことができる。
ここでの目的は、人間の語彙に対する二部グラフのアプローチの中で、Zipfianプロパティの形成のための分散言語ゲームモデルを提案することである。
これを実現するために、人工エージェントの集団が理想化された言語相互作用に関与する言語ゲームを定義する。
数値シミュレーションは、初期乱れ状態から3つの相への相転移が言語形成に現れることを示している。
以上の結果から,言語におけるZipfianの性質は,二分詞意味マッピングを付与したエージェント間の分散言語相互作用から生じると考えられる。
関連論文リスト
- Linguistic Structure from a Bottleneck on Sequential Information Processing [5.850665541267672]
予測情報によって制約されたコードに自然言語のような体系性が生じることを示す。
人間の言語は、音韻学、形態学、構文学、意味論のレベルにおいて、低い予測情報を持つように構成されている。
論文 参考訳(メタデータ) (2024-05-20T15:25:18Z) - SpeechAlign: Aligning Speech Generation to Human Preferences [51.684183257809075]
本稿では,言語モデルと人間の嗜好を一致させる反復的自己改善戦略であるSpeechAlignを紹介する。
我々は、SpeechAlignが分散ギャップを埋め、言語モデルの継続的自己改善を促進することができることを示す。
論文 参考訳(メタデータ) (2024-04-08T15:21:17Z) - Decoding Probing: Revealing Internal Linguistic Structures in Neural Language Models using Minimal Pairs [0.873811641236639]
本稿では,ニューラルネットワークモデル層の内部言語特性を層単位で探索する新しい復号探索手法を提案する。
言語モデルを脳として扱い、その表現をニューラルアクティベーションとして扱うことにより、中間層の表現から最小対の文法ラベルをデコードする。
論文 参考訳(メタデータ) (2024-03-26T00:56:06Z) - Identifying and interpreting non-aligned human conceptual
representations using language modeling [0.0]
先天性失明は,a-モダル語と知覚関連言語ドメインの両方において概念的再編成を引き起こすことを示す。
視覚障害者は、より強く社会的・認知的な意味と、行動に関連する動詞を関連づける。
一部の動詞では、盲目と盲目の表現は非常に似ている。
論文 参考訳(メタデータ) (2024-03-10T13:02:27Z) - Do Llamas Work in English? On the Latent Language of Multilingual Transformers [13.885884589999492]
我々は、英語が支配するコーパスが、英語を内的ピボット言語として使っているかどうかを問う。
本研究は、独特な正しい単語継続を伴う英語でないプロンプトを慎重に構築する。
これらの結果を、3つの位相が「入力空間」、「概念空間」、「出力空間」で機能する概念モデルにキャストした。
論文 参考訳(メタデータ) (2024-02-16T11:21:28Z) - Robustness of the Random Language Model [0.0]
このモデルは、潜在的言語の広大な空間におけるアニーリングの一種として、最初の言語学習の簡単な図を示唆している。
これは、潜在的な単語とカテゴリ間の対称性が自発的に壊れる文法構文への単一の連続的な遷移を意味する。
結果は、言語学における第一言語習得の理論と、機械学習における最近の成功を踏まえて議論される。
論文 参考訳(メタデータ) (2023-09-26T13:14:35Z) - Shapley Head Pruning: Identifying and Removing Interference in
Multilingual Transformers [54.4919139401528]
言語固有のパラメータを識別・解析することで干渉を減らすことができることを示す。
固定モデルから同定された注目ヘッドを除去することで、文分類と構造予測の両方において、ターゲット言語の性能が向上することを示す。
論文 参考訳(メタデータ) (2022-10-11T18:11:37Z) - Linking Emergent and Natural Languages via Corpus Transfer [98.98724497178247]
創発言語と自然言語のコーパス転送によるリンクを確立する新しい方法を提案する。
このアプローチでは,言語モデリングとイメージキャプションという,2つの異なるタスクに対して,非自明な転送メリットを示す。
また,同一画像に基づく自然言語キャプションに創発的メッセージを翻訳することで,創発的言語の伝達可能性を予測する新しい指標を提案する。
論文 参考訳(メタデータ) (2022-03-24T21:24:54Z) - Neural Abstructions: Abstractions that Support Construction for Grounded
Language Learning [69.1137074774244]
言語の相互作用を効果的に活用するには、言語基底に対する2つの最も一般的なアプローチの制限に対処する必要がある。
本稿では,ラベル条件付き生成モデルの推論手順に対する制約のセットであるニューラル・アブストラクションの考え方を紹介する。
この手法により,マインクラフトにおけるオープンエンドハウスタスクのセマンティックな変更をユーザ人口が構築できることが示される。
論文 参考訳(メタデータ) (2021-07-20T07:01:15Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - Where New Words Are Born: Distributional Semantic Analysis of Neologisms
and Their Semantic Neighborhoods [51.34667808471513]
分散意味論のパラダイムで定式化されたセマンティック隣人のセマンティック・スパシティと周波数成長率という2つの要因の重要性について検討する。
いずれの因子も単語の出現を予測できるが,後者の仮説はより支持される。
論文 参考訳(メタデータ) (2020-01-21T19:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。