論文の概要: Anaphoric Structure Emerges Between Neural Networks
- arxiv url: http://arxiv.org/abs/2308.07984v1
- Date: Tue, 15 Aug 2023 18:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 15:55:29.685865
- Title: Anaphoric Structure Emerges Between Neural Networks
- Title(参考訳): ニューラルネットワーク間のアナフォリック構造
- Authors: Nicholas Edwards, Hannah Rohde, and Henry Conklin
- Abstract要約: プラグマティクスは自然言語の中核であり、話者はエリプシスやアナフォラのような構造と効率的にコミュニケーションできる。
あいまいさを導入する可能性があるにもかかわらず、アナフォラは人間の言語に普遍的である。
アナフォリック構造を持つ言語はニューラルネットワークによって学習可能であることを示す。
- 参考スコア(独自算出の注目度): 3.0518581575184225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pragmatics is core to natural language, enabling speakers to communicate
efficiently with structures like ellipsis and anaphora that can shorten
utterances without loss of meaning. These structures require a listener to
interpret an ambiguous form - like a pronoun - and infer the speaker's intended
meaning - who that pronoun refers to. Despite potential to introduce ambiguity,
anaphora is ubiquitous across human language. In an effort to better understand
the origins of anaphoric structure in natural language, we look to see if
analogous structures can emerge between artificial neural networks trained to
solve a communicative task. We show that: first, despite the potential for
increased ambiguity, languages with anaphoric structures are learnable by
neural models. Second, anaphoric structures emerge between models 'naturally'
without need for additional constraints. Finally, introducing an explicit
efficiency pressure on the speaker increases the prevalence of these
structures. We conclude that certain pragmatic structures straightforwardly
emerge between neural networks, without explicit efficiency pressures, but that
the competing needs of speakers and listeners conditions the degree and nature
of their emergence.
- Abstract(参考訳): プラグマティクスは自然言語の中核であり、話者はエリプシスやアナフォラのような構造と効率的にコミュニケーションでき、意味を失うことなく発話を短縮できる。
これらの構造は、聞き手が不明瞭な形式(代名詞のように)を解釈し、話し手の意図する意味を推測することを要求する。
曖昧さをもたらす可能性があるにもかかわらず、アナフォラは人間の言語に共通している。
自然言語におけるアナフォリック構造の起源をよりよく理解するために、通信課題を解決するために訓練された人工ニューラルネットワーク間で類似構造が出現するかどうかを検討する。
まず、あいまいさの増加の可能性にもかかわらず、アナフォリック構造を持つ言語はニューラルモデルによって学習可能である。
第二に、追加の制約を必要とせずに、モデル間のアナフォリック構造が「自然に」現れる。
最後に、話者に明示的な効率の圧力を導入することで、これらの構造の普及が増加する。
我々は、特定の実用的構造は、明示的な効率のプレッシャーなしに、ニューラルネットワーク間で直接現れるが、話者とリスナーの競合するニーズは、その出現の度合いと性質を条件付けると結論付けた。
関連論文リスト
- Audio-Visual Neural Syntax Acquisition [91.14892278795892]
視覚的音声からの句構造誘導について検討する。
本稿では,音声を聴いたり,画像を見たりすることでフレーズ構造を学習するAV-NSL(Audio-Visual Neural Syntax Learner)について述べる。
論文 参考訳(メタデータ) (2023-10-11T16:54:57Z) - What makes a language easy to deep-learn? Deep neural networks and humans similarly benefit from compositional structure [5.871583927216651]
言語の基本的性質は、その構成構造であり、人間は新しい意味の形を作ることができる。
人間にとって、より構成的で透明な構造を持つ言語は、不透明で不規則な構造を持つ言語よりも学習しやすい。
この学習可能性の利点は、人間の言語学習のモデルとしての使用を制限するディープニューラルネットワークでは、まだ示されていない。
論文 参考訳(メタデータ) (2023-02-23T18:57:34Z) - Sentences as connection paths: A neural language architecture of
sentence structure in the brain [0.0]
論文は、脳内の文構造に関するニューラル言語アーキテクチャを提示する。
言葉は「in-situ」のままであり、常に内容に順応できる。
任意文と新規文(新語)は、単語や文の「神経黒板」で作成することができる。
論文 参考訳(メタデータ) (2022-05-19T13:58:45Z) - Color Overmodification Emerges from Data-Driven Learning and Pragmatic
Reasoning [53.088796874029974]
話者の指示表現は、実践的な言語使用の性質を照らし出すのに役立つ方法で、コミュニケーションイデアルから逸脱していることを示す。
ニューラルネットワークを学習エージェントとして採用することにより、過度な修正は、頻度の低い、あるいは正常な環境特性に結びつく可能性が高いことを示す。
論文 参考訳(メタデータ) (2022-05-18T18:42:43Z) - Emergent Communication for Understanding Human Language Evolution:
What's Missing? [1.2891210250935146]
構成性の出現と利益に関する3つの重要な現象について論じる。
これらのミスマッチの1つの可能性として、人間の重要な認知的・コミュニケーション的制約がまだ統合されていないことを挙げる。
論文 参考訳(メタデータ) (2022-04-22T09:21:53Z) - Neural Abstructions: Abstractions that Support Construction for Grounded
Language Learning [69.1137074774244]
言語の相互作用を効果的に活用するには、言語基底に対する2つの最も一般的なアプローチの制限に対処する必要がある。
本稿では,ラベル条件付き生成モデルの推論手順に対する制約のセットであるニューラル・アブストラクションの考え方を紹介する。
この手法により,マインクラフトにおけるオープンエンドハウスタスクのセマンティックな変更をユーザ人口が構築できることが示される。
論文 参考訳(メタデータ) (2021-07-20T07:01:15Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Semantics-Aware Inferential Network for Natural Language Understanding [79.70497178043368]
このようなモチベーションを満たすために,セマンティックス対応推論ネットワーク(SAIN)を提案する。
SAINの推論モジュールは、明示的な文脈的セマンティクスを補完的な入力として、セマンティクス上の一連の推論ステップを可能にする。
本モデルでは,機械読解や自然言語推論など11タスクの大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-04-28T07:24:43Z) - Compositional Languages Emerge in a Neural Iterated Learning Model [27.495624644227888]
構成性により、自然言語はより単純な組み合わせによって複雑な概念を表現することができる。
本稿では,対話型ニューラルエージェントに適用することで,より構造化された言語の出現を促進する効果的なニューラル・イテレーテッド・ラーニング(NIL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-04T15:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。