論文の概要: Human Languages with Greater Information Density Increase Communication
Speed, but Decrease Conversation Breadth
- arxiv url: http://arxiv.org/abs/2112.08491v2
- Date: Fri, 29 Sep 2023 14:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 19:58:59.405530
- Title: Human Languages with Greater Information Density Increase Communication
Speed, but Decrease Conversation Breadth
- Title(参考訳): 情報密度の大きい人間言語は通信速度を増大させるが、会話の可読度は低下する
- Authors: Pedro Aceves and James A. Evans
- Abstract要約: 単語に密接な言語が情報をエンコードする方法には、幅広いバリエーションがあることが示される。
第二に、この言語情報密度は意味情報のより密な構成と関連していることを示す。
最後に,言語情報密度とコミュニケーションパターンの関係を追究する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human languages vary widely in how they encode information within
circumscribed semantic domains (e.g., time, space, color, human body parts and
activities), but little is known about the global structure of semantic
information and nothing about its relation to human communication. We first
show that across a sample of ~1,000 languages, there is broad variation in how
densely languages encode information into their words. Second, we show that
this language information density is associated with a denser configuration of
semantic information. Finally, we trace the relationship between language
information density and patterns of communication, showing that informationally
denser languages tend toward (1) faster communication, but (2) conceptually
narrower conversations within which topics of conversation are discussed at
greater depth. These results highlight an important source of variation across
the human communicative channel, revealing that the structure of language
shapes the nature and texture of human engagement, with consequences for human
behavior across levels of society.
- Abstract(参考訳): 人間の言語は、周囲のセマンティックドメイン(時間、空間、色、人体の一部、活動など)で情報をエンコードする方法に大きく異なるが、セマンティック情報のグローバルな構造についてはほとんど知られていない。
まず,約1,000の言語を例にとると,言語が単語にどのように情報をエンコードするかに幅広い変化があることを示す。
第二に、この言語情報密度は意味情報のより密な構成と関連していることを示す。
最後に、言語情報密度とコミュニケーションパターンの関係を追跡し、情報密度の高い言語は(1)より高速なコミュニケーションに向かっているが、(2)会話の話題がより深く議論される、概念的に狭い会話であることを示す。
これらの結果は、言語の構造が人間の関与の性質と質感を形作っており、社会のレベルをまたがる人間の行動に影響を及ぼすことを明らかにする、人間のコミュニケーションチャネルにおける重要な変化の源となっている。
関連論文リスト
- Analyzing The Language of Visual Tokens [48.62180485759458]
我々は、離散的な視覚言語を分析するために、自然言語中心のアプローチをとる。
トークンの高度化はエントロピーの増大と圧縮の低下を招き,トークンが主にオブジェクト部品を表すことを示す。
また、視覚言語には結合的な文法構造が欠如していることが示され、自然言語と比較して難易度が高く、階層構造が弱いことが判明した。
論文 参考訳(メタデータ) (2024-11-07T18:59:28Z) - Linguistic Structure from a Bottleneck on Sequential Information Processing [5.850665541267672]
予測情報によって制約されたコードに自然言語のような体系性が生じることを示す。
人間の言語は、音韻学、形態学、構文学、意味論のレベルにおいて、低い予測情報を持つように構成されている。
論文 参考訳(メタデータ) (2024-05-20T15:25:18Z) - Unveiling the pressures underlying language learning and use in neural networks, large language models, and humans: Lessons from emergent machine-to-machine communication [5.371337604556311]
本稿では,ニューラルエージェントと人間の言語行動のミスマッチが解決された3症例について概説する。
我々は、コミュニケーションの成功、生産努力、学習可能性、その他の心理・社会言語学的要因といった、言語学習と台頭のための重要なプレッシャーを識別する。
論文 参考訳(メタデータ) (2024-03-21T14:33:34Z) - Multi-lingual and Multi-cultural Figurative Language Understanding [69.47641938200817]
図形言語は人間のコミュニケーションに浸透するが、NLPでは比較的過小評価されている。
Hindi, Indonesian, Javanese, Kannada, Sundanese, Swahili, Yorubaの7つの多様な言語に関するデータセットを作成しました。
我々のデータセットから,各言語は,同じ領域から派生した言語間で最も高い重なり合いを持つ,図形表現の文化的・地域的概念に依存していることが明らかとなった。
全ての言語は、事前学習データと微調整データの可用性を反映した性能の変化により、英語と比較して大きな欠陥がある。
論文 参考訳(メタデータ) (2023-05-25T15:30:31Z) - Bridging Nations: Quantifying the Role of Multilinguals in Communication
on Social Media [14.646734380673648]
言語間情報交換における多言語ユーザの構造的役割とコミュニケーションの影響を定量化する。
多言語ネットワークの隣人を持つと、他の言語 16 倍と 4 倍のハッシュタグをそれぞれ共有するモノリンガルの確率が増加する。
国境を越えての情報交換を強調することで、この研究は、情報やアイデアが世界中でどのように広まるかという重要な要素を浮き彫りにする。
論文 参考訳(メタデータ) (2023-04-07T18:01:25Z) - Joint processing of linguistic properties in brains and language models [14.997785690790032]
人間の脳と言語モデルによる言語情報の詳細な処理の対応について検討する。
特定の言語特性の除去は脳のアライメントを著しく低下させる。
これらの知見は、脳と言語モデルとの整合における特定の言語情報の役割の明確な証拠である。
論文 参考訳(メタデータ) (2022-12-15T19:13:42Z) - Representing Affect Information in Word Embeddings [5.378735006566249]
大規模ニューラルネットワークで事前学習した単語の埋め込みにおいて、単語の感情の意味がコード化されているかどうかを検討した。
埋め込みは静的あるいは文脈的に変化し、事前学習と微調整の段階で特定の情報にどの程度影響するかが優先された。
論文 参考訳(メタデータ) (2022-09-21T18:16:33Z) - Linking Emergent and Natural Languages via Corpus Transfer [98.98724497178247]
創発言語と自然言語のコーパス転送によるリンクを確立する新しい方法を提案する。
このアプローチでは,言語モデリングとイメージキャプションという,2つの異なるタスクに対して,非自明な転送メリットを示す。
また,同一画像に基づく自然言語キャプションに創発的メッセージを翻訳することで,創発的言語の伝達可能性を予測する新しい指標を提案する。
論文 参考訳(メタデータ) (2022-03-24T21:24:54Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Bridging Linguistic Typology and Multilingual Machine Translation with
Multi-View Language Representations [83.27475281544868]
特異ベクトル標準相関解析を用いて、各情報源からどのような情報が誘導されるかを調べる。
我々の表現は類型学を組み込み、言語関係と相関関係を強化する。
次に、多言語機械翻訳のための多視点言語ベクトル空間を利用して、競合する全体的な翻訳精度を実現する。
論文 参考訳(メタデータ) (2020-04-30T16:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。