論文の概要: Is Structure Dependence Shaped for Efficient Communication?: A Case Study on Coordination
- arxiv url: http://arxiv.org/abs/2410.10556v1
- Date: Mon, 14 Oct 2024 14:35:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-29 20:55:06.280767
- Title: Is Structure Dependence Shaped for Efficient Communication?: A Case Study on Coordination
- Title(参考訳): 効率的なコミュニケーションのための構造依存は形づくられるか?-コーディネーションを事例として-
- Authors: Kohei Kajikawa, Yusuke Kubota, Yohei Oseki,
- Abstract要約: 構造依存が効率的なコミュニケーションを実現するかどうかを,座標構造に着目して検討する。
我々は, 構造依存型還元演算を用いた人工言語, (i) 自然言語に類似した構造依存型還元演算を用いた人工言語, (ii) 縮小演算を伴わない人工言語, (iii) 線形(構造依存型還元演算ではない) の3種類の人工言語を設計する。
- 参考スコア(独自算出の注目度): 3.01089361849133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural language exhibits various universal properties. But why do these universals exist? One explanation is that they arise from functional pressures to achieve efficient communication, a view which attributes cross-linguistic properties to domain-general cognitive abilities. This hypothesis has successfully addressed some syntactic universal properties such as compositionality and Greenbergian word order universals. However, more abstract syntactic universals have not been explored from the perspective of efficient communication. Among such universals, the most notable one is structure dependence, that is, the existence of grammar-internal operations that crucially depend on hierarchical representations. This property has traditionally been taken to be central to natural language and to involve domain-specific knowledge irreducible to communicative efficiency. In this paper, we challenge the conventional view by investigating whether structure dependence realizes efficient communication, focusing on coordinate structures. We design three types of artificial languages: (i) one with a structure-dependent reduction operation, which is similar to natural language, (ii) one without any reduction operations, and (iii) one with a linear (rather than structure-dependent) reduction operation. We quantify the communicative efficiency of these languages. The results demonstrate that the language with the structure-dependent reduction operation is significantly more communicatively efficient than the counterfactual languages. This suggests that the existence of structure-dependent properties can be explained from the perspective of efficient communication.
- Abstract(参考訳): 自然言語は様々な普遍性を示す。
しかし、なぜこのような普遍性が存在するのか?
一つの説明は、効率的なコミュニケーションを実現するために機能的な圧力から生じる、というものである。
この仮説は、構成性やグリーンバーグ語順普遍性のようないくつかの統語的普遍性に対処することに成功している。
しかし、より抽象的な統語的普遍性は効率的なコミュニケーションの観点からは研究されていない。
そのような普遍性の中で、最も顕著なものは構造依存、すなわち階層的表現に決定的に依存する文法-内部演算の存在である。
この性質は伝統的に、自然言語の中心であり、コミュニケーションの効率性とは無関係に、ドメイン固有の知識を含むと考えられてきた。
本稿では, 構造依存が効率的なコミュニケーションを実現するかどうかを, 座標構造に着目して検討することで, 従来の考え方に挑戦する。
我々は3種類の人工言語を設計する。
一 自然言語に類似した構造依存還元演算を有するもの
二 減産業務を行わないもの、及び
三 線形(構造に依存しない)縮小運転を有するもの
これらの言語のコミュニケーション効率を定量化する。
その結果, 構造に依存した縮小操作を施した言語は, 対実的言語よりもはるかにコミュニケーションのよい言語であることが示唆された。
このことは、効率的なコミュニケーションの観点から、構造に依存した性質の存在を説明することができることを示唆している。
関連論文リスト
- Analyzing The Language of Visual Tokens [48.62180485759458]
我々は、離散的な視覚言語を分析するために、自然言語中心のアプローチをとる。
トークンの高度化はエントロピーの増大と圧縮の低下を招き,トークンが主にオブジェクト部品を表すことを示す。
また、視覚言語には結合的な文法構造が欠如していることが示され、自然言語と比較して難易度が高く、階層構造が弱いことが判明した。
論文 参考訳(メタデータ) (2024-11-07T18:59:28Z) - A Complexity-Based Theory of Compositionality [53.025566128892066]
AIでは、構成表現は配布外一般化の強力な形式を可能にすることができる。
ここでは、構成性に関する直観を考慮し、拡張する構成性の公式な定義を提案する。
この定義は概念的には単純で量的であり、アルゴリズム情報理論に基礎を置いており、あらゆる表現に適用できる。
論文 参考訳(メタデータ) (2024-10-18T18:37:27Z) - Linguistic Structure from a Bottleneck on Sequential Information Processing [5.850665541267672]
予測情報によって制約されたコードに自然言語のような体系性が生じることを示す。
人間の言語は、音韻学、形態学、構文学、意味論のレベルにおいて、低い予測情報を持つように構成されている。
論文 参考訳(メタデータ) (2024-05-20T15:25:18Z) - Work Smarter...Not Harder: Efficient Minimization of Dependency Length in SOV Languages [0.34530027457862006]
主動詞の横にある短い前動詞構成詞の移動は、SOV言語における依存関係長の国際最小化よりも、前動詞構成詞の順序決定が優れていることを説明できる。
この研究は、言語決定と言語進化における有界合理性の役割に光を当てている。
論文 参考訳(メタデータ) (2024-04-29T13:30:27Z) - Anaphoric Structure Emerges Between Neural Networks [3.0518581575184225]
プラグマティクスは自然言語の中核であり、話者はエリプシスやアナフォラのような構造と効率的にコミュニケーションできる。
あいまいさを導入する可能性があるにもかかわらず、アナフォラは人間の言語に普遍的である。
アナフォリック構造を持つ言語はニューラルネットワークによって学習可能であることを示す。
論文 参考訳(メタデータ) (2023-08-15T18:34:26Z) - Universal Topological Regularities of Syntactic Structures: Decoupling
Efficiency from Optimization [0.0]
本研究では、構文グラフのトポロジが、それらの出現に繋がる過程の痕跡を明らかにする方法について検討する。
シンタクティック構造における新しい普遍的規則性について報告する。
論文 参考訳(メタデータ) (2023-01-31T22:35:11Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Linking Emergent and Natural Languages via Corpus Transfer [98.98724497178247]
創発言語と自然言語のコーパス転送によるリンクを確立する新しい方法を提案する。
このアプローチでは,言語モデリングとイメージキャプションという,2つの異なるタスクに対して,非自明な転送メリットを示す。
また,同一画像に基づく自然言語キャプションに創発的メッセージを翻訳することで,創発的言語の伝達可能性を予測する新しい指標を提案する。
論文 参考訳(メタデータ) (2022-03-24T21:24:54Z) - Neural Abstructions: Abstractions that Support Construction for Grounded
Language Learning [69.1137074774244]
言語の相互作用を効果的に活用するには、言語基底に対する2つの最も一般的なアプローチの制限に対処する必要がある。
本稿では,ラベル条件付き生成モデルの推論手順に対する制約のセットであるニューラル・アブストラクションの考え方を紹介する。
この手法により,マインクラフトにおけるオープンエンドハウスタスクのセマンティックな変更をユーザ人口が構築できることが示される。
論文 参考訳(メタデータ) (2021-07-20T07:01:15Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Modelling Compositionality and Structure Dependence in Natural Language [0.12183405753834563]
言語学と集合論に基づいて、これらの概念の形式化がこの論文の前半で述べられている。
言語処理を行う認知システムは,特定の機能的制約を持つ必要がある。
単語埋め込み技術の進歩を利用して、関係学習のモデルがシミュレートされる。
論文 参考訳(メタデータ) (2020-11-22T17:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。