論文の概要: Shared Lexical Items as Triggers of Code Switching
- arxiv url: http://arxiv.org/abs/2308.15209v1
- Date: Tue, 29 Aug 2023 10:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 14:40:26.388072
- Title: Shared Lexical Items as Triggers of Code Switching
- Title(参考訳): コードスイッチングのトリガーとしての共有語彙項目
- Authors: Shuly Wintner and Safaa Shehadi and Yuli Zeira and Doreen Osmelak and
Yuval Nov
- Abstract要約: 両言語が共有するメンタルレキシコンに存在すると仮定された単語が、実際にコードスイッチングを引き起こすことを示す。
スイッチする傾向は、スイッチポイントからのトリガーの距離に依存する。
したがって、語彙的トリガとコードスイッチングの関係に関するいくつかの仮説を、強く、堅牢で、証拠に基づく確証を提供する。
- 参考スコア(独自算出の注目度): 1.7624347338410742
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Why do bilingual speakers code-switch (mix their two languages)? Among the
several theories that attempt to explain this natural and ubiquitous
phenomenon, the Triggering Hypothesis relates code-switching to the presence of
lexical triggers, specifically cognates and proper names, adjacent to the
switch point. We provide a fuller, more nuanced and refined exploration of the
triggering hypothesis, based on five large datasets in three language pairs,
reflecting both spoken and written bilingual interactions. Our results show
that words that are assumed to reside in a mental lexicon shared by both
languages indeed trigger code-switching; that the tendency to switch depends on
the distance of the trigger from the switch point; and on whether the trigger
precedes or succeeds the switch; but not on the etymology of the trigger words.
We thus provide strong, robust, evidence-based confirmation to several
hypotheses on the relationships between lexical triggers and code-switching.
- Abstract(参考訳): バイリンガル話者はなぜコードスイッチ(2つの言語を混ぜる)するのか?
この自然かつユビキタスな現象を説明するいくつかの理論の中で、トリガー仮説は、スイッチポイントに隣接する語彙的トリガー(特に認識と固有名)の存在に関するコードスイッチングに関するものである。
3つの言語ペアの5つの大きなデータセットに基づいて、話し言葉と書き言葉の両方の対話を反映した、より豊かでより微妙なトリガー仮説の探求を提供する。
以上の結果から,両言語が共有するメンタルレキシコンに存在すると仮定される単語は,実際にコードスイッチングが引き起こされること,スイッチポイントから引き起こされるトリガーの距離に依存すること,トリガーが切替に先行するか否か,あるいはそれに続くか,トリガーワードの語源には依存しないことが示唆された。
したがって,語彙的トリガとコードスイッチの関係に関するいくつかの仮説に対して,強固で堅牢な証拠に基づく確認を行う。
関連論文リスト
- Code-switching in text and speech reveals information-theoretic audience design [5.3329709073809095]
コードスイッチングに影響を与える要因について,言語モデルを用いて検討する。
ある話者が1つの言語(第一言語)と別の言語(第二言語)を交互に話すとき、コードスイッチングが発生する
論文 参考訳(メタデータ) (2024-08-08T17:14:12Z) - Measuring Entrainment in Spontaneous Code-switched Speech [3.9736028502700527]
我々は,人間間のコードスイッチによる自発音声における文字と音声のエントレメントのパターンについて検討した。
本研究は,コミュニケーション現象としてのエントレメントの「普遍的」性質に重要な意味を生じさせるものである。
論文 参考訳(メタデータ) (2023-11-13T19:41:34Z) - Breaking the Language Barrier: Improving Cross-Lingual Reasoning with
Structured Self-Attention [18.439771003766026]
多言語言語モデル(MultiLM)が、異なる言語での推論のために微調整された場合、論理的推論能力を他の言語に伝達できるかどうかを検討する。
我々は,MultiLMが言語間の推論能力をモノリンガルな環境で伝達できることを実証した。
この観察に続いて,コードスイッチングシーケンスにおける言語横断的な注意を促すために,専用パラメータセットを用いた新しいアテンション機構を提案する。
論文 参考訳(メタデータ) (2023-10-23T18:06:38Z) - VECO 2.0: Cross-lingual Language Model Pre-training with
Multi-granularity Contrastive Learning [56.47303426167584]
複数粒度アライメントを持つコントラスト学習に基づく言語間事前学習モデルVECO2.0を提案する。
具体的には、シーケンス・ツー・シーケンスアライメントが誘導され、並列対の類似性を最大化し、非並列対を最小化する。
トークン・ツー・トークンのアライメントは、シソーラス辞書を介して発掘された同義トークンと、バイリンガルな例の他の未使用トークンとのギャップを埋めるために統合される。
論文 参考訳(メタデータ) (2023-04-17T12:23:41Z) - Cross-Linguistic Syntactic Difference in Multilingual BERT: How Good is
It and How Does It Affect Transfer? [50.48082721476612]
マルチリンガルBERT (mBERT) は, 言語間シンタクティックな機能を示した。
我々は,mBERTから引き起こされる文法的関係の分布を,24言語に類型的に異なる文脈で検討した。
論文 参考訳(メタデータ) (2022-12-21T09:44:08Z) - Automatic Identification of Motivation for Code-Switching in Speech
Transcripts [3.8073142980733]
コードスイッチング(英: Code-switching)は、言語を切り替えることであり、言語学的、社会学的、文化的に重要な意味を持つ。
日々の音声で話者が音声で会話する幅広いモチベーションを自動的に識別するシステムを構築した。
新しい言語対に適応でき、新しい言語対(ヒンディー語-英語)で66%の精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-11-30T05:45:05Z) - Reducing language context confusion for end-to-end code-switching
automatic speech recognition [50.89821865949395]
本稿では,E2E符号スイッチングASRモデルの多言語コンテキストの混同を低減するための言語関連アテンション機構を提案する。
複数の言語のそれぞれの注意を計算することにより、豊かな単言語データから言語知識を効率的に伝達することができる。
論文 参考訳(メタデータ) (2022-01-28T14:39:29Z) - When is BERT Multilingual? Isolating Crucial Ingredients for
Cross-lingual Transfer [15.578267998149743]
サブワード重複の欠如は,言語が単語順に異なる場合,ゼロショット転送に大きく影響することを示す。
言語間の伝達性能と単語埋め込みアライメントの間には強い相関関係がある。
その結果、言語間の単語埋め込みアライメントを明示的に改善する多言語モデルに焦点が当てられた。
論文 参考訳(メタデータ) (2021-10-27T21:25:39Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Speakers Fill Lexical Semantic Gaps with Context [65.08205006886591]
我々は単語の語彙的あいまいさを意味のエントロピーとして運用する。
単語のあいまいさの推定値と,WordNetにおける単語の同義語数との間には,有意な相関関係が認められた。
これは、あいまいさの存在下では、話者が文脈をより情報的にすることで補うことを示唆している。
論文 参考訳(メタデータ) (2020-10-05T17:19:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。