論文の概要: Work Smarter...Not Harder: Efficient Minimization of Dependency Length in SOV Languages
- arxiv url: http://arxiv.org/abs/2404.18684v1
- Date: Mon, 29 Apr 2024 13:30:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 13:38:04.353959
- Title: Work Smarter...Not Harder: Efficient Minimization of Dependency Length in SOV Languages
- Title(参考訳): Work Smarter...Not Harder: SOV言語における依存性長の効率的な最小化
- Authors: Sidharth Ranjan, Titus von der Malsburg,
- Abstract要約: 主動詞の横にある短い前動詞構成詞の移動は、SOV言語における依存関係長の国際最小化よりも、前動詞構成詞の順序決定が優れていることを説明できる。
この研究は、言語決定と言語進化における有界合理性の役割に光を当てている。
- 参考スコア(独自算出の注目度): 0.34530027457862006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dependency length minimization is a universally observed quantitative property of natural languages. However, the extent of dependency length minimization, and the cognitive mechanisms through which the language processor achieves this minimization remain unclear. This research offers mechanistic insights by postulating that moving a short preverbal constituent next to the main verb explains preverbal constituent ordering decisions better than global minimization of dependency length in SOV languages. This approach constitutes a least-effort strategy because it's just one operation but simultaneously reduces the length of all preverbal dependencies linked to the main verb. We corroborate this strategy using large-scale corpus evidence across all seven SOV languages that are prominently represented in the Universal Dependency Treebank. These findings align with the concept of bounded rationality, where decision-making is influenced by 'quick-yet-economical' heuristics rather than exhaustive searches for optimal solutions. Overall, this work sheds light on the role of bounded rationality in linguistic decision-making and language evolution.
- Abstract(参考訳): 依存長最小化(Dependency length minimization)は、自然言語の普遍的な定量的性質である。
しかし、依存関係長の最小化の程度と、言語プロセッサがこの最小化を実現する認知メカニズムはいまだに不明である。
本研究は, 主動詞の横にある短い前動詞構成詞を移動させることで, SOV言語における依存関係長の国際最小化よりも, 事前詞構成詞の順序決定が優れていることを示唆して, 機械的洞察を提供する。
このアプローチは1つの操作に過ぎないが、主動詞に関連付けられたすべての前動詞依存の長さを同時に減少させるため、最小限の戦略を構成する。
我々は,Universal Dependency Treebankで顕著に表現されている7つのSOV言語すべてにわたる大規模コーパスエビデンスを用いて,この戦略を裏付ける。
これらの知見は、最適解の徹底的な探索というよりはむしろ「クイック・イット・エコノミカル」なヒューリスティックスによって意思決定が影響される有界有理性の概念と一致する。
全体として、この研究は言語決定と言語進化における有界合理性の役割に光を当てている。
関連論文リスト
- Sharing Matters: Analysing Neurons Across Languages and Tasks in LLMs [73.0661307151716]
本研究は、ニューロンを特定の入力に対して異なる言語にまたがる応答に応じて4つの異なるグループに分類することで、言語間でニューロンの活性化がどのように共有されるかを検討する。
分析の結果, (i) 言語的共有パターンはタスクの種類によって強く影響されるが, 同じタスクであっても異なる入力に対してニューロンの挙動が変化すること, (ii) 完全共有ニューロンが正しい応答を生成する上で重要な役割を担っていること, (iii) 完全共有ニューロンの増加による多言語的アライメントの促進により, 多言語的タスクの精度が向上すること,などが明らかになった。
論文 参考訳(メタデータ) (2024-06-13T16:04:11Z) - Does Dependency Locality Predict Non-canonical Word Order in Hindi? [5.540151072128081]
依存性長最小化は、非標準的(OSV)構文選択の重要な予測因子である。
談話予測可能性は、構成順序の選好の主要な決定要因として現れる。
この研究は、語順決定における期待適応の役割に光を当てている。
論文 参考訳(メタデータ) (2024-05-13T13:24:17Z) - Can large language models understand uncommon meanings of common words? [30.527834781076546]
大規模言語モデル(LLM)は、様々な自然言語理解(NLU)タスクに大きく進歩している。
しかし、LLMがオウムなのか、本当の意味で世界を理解するのかは、広く認知されている試験機構が欠如している。
本稿では,新しい評価指標を用いたレキシカルセマンティックデータセットの革新的構築について述べる。
論文 参考訳(メタデータ) (2024-05-09T12:58:22Z) - A bounded rationality account of dependency length minimization in Hindi [0.0]
DependenCY LENGTH MINIMIZATIONの原理は、効果的なコミュニケーションのために人間の言語の構造を形成すると考えられている。
典型的には、長短成分と後短長成分の配置は、文全体の依存長を最小にすることが知られている。
本研究では,ヒンディー語における単語順の嗜好について,主動詞の横に最短助詞のみを置くという仮説を検証した。
論文 参考訳(メタデータ) (2023-04-22T13:53:50Z) - Shortcut Learning of Large Language Models in Natural Language
Understanding [119.45683008451698]
大規模言語モデル(LLM)は、一連の自然言語理解タスクにおいて最先端のパフォーマンスを達成した。
予測のショートカットとしてデータセットのバイアスやアーティファクトに依存するかも知れません。
これは、その一般化性と敵対的堅牢性に大きな影響を与えている。
論文 参考訳(メタデータ) (2022-08-25T03:51:39Z) - Neuro-Symbolic Causal Language Planning with Commonsense Prompting [67.06667162430118]
言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベルな目標を実装することを目的としている。
以前の手法では、大規模な言語モデルからそのような能力を得るために、手動の例えか注釈付きプログラムが必要である。
本稿では,LLMからの手続き的知識をコモンセンス・インフュージョン・プロンプトにより引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
論文 参考訳(メタデータ) (2022-06-06T22:09:52Z) - Generalized Optimal Linear Orders [9.010643838773477]
言語の逐次構造、特に文中の単語の順序は、人間の言語処理において中心的な役割を果たす。
言語の計算モデルの設計において、デファクトのアプローチは、原文と同じ順序で命令された単語を機械に提示することである。
この研究の本質は、これが望ましいという暗黙の仮定を疑問視し、自然言語処理における語順の考慮に理論的健全性を注入することである。
論文 参考訳(メタデータ) (2021-08-13T13:10:15Z) - Neural Abstructions: Abstractions that Support Construction for Grounded
Language Learning [69.1137074774244]
言語の相互作用を効果的に活用するには、言語基底に対する2つの最も一般的なアプローチの制限に対処する必要がある。
本稿では,ラベル条件付き生成モデルの推論手順に対する制約のセットであるニューラル・アブストラクションの考え方を紹介する。
この手法により,マインクラフトにおけるオープンエンドハウスタスクのセマンティックな変更をユーザ人口が構築できることが示される。
論文 参考訳(メタデータ) (2021-07-20T07:01:15Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - The optimality of syntactic dependency distances [0.802904964931021]
空間ネットワーク上での最適化問題として,文の単語順の最適性の問題を再放送する。
文中の単語間の距離を減らすために認知的圧力を定量化する新しいスコアを導入する。
93言語からの文の分析により、言語の半分が70%以上に最適化されていることが明らかになった。
論文 参考訳(メタデータ) (2020-07-30T09:40:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。