論文の概要: Using eye tracking to investigate what native Chinese speakers notice about linguistic landscape images
- arxiv url: http://arxiv.org/abs/2312.08906v4
- Date: Tue, 2 Jul 2024 10:32:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 07:59:39.067529
- Title: Using eye tracking to investigate what native Chinese speakers notice about linguistic landscape images
- Title(参考訳): 視線追跡による中国語話者の言語景観イメージの認識
- Authors: Zichao Wei, Yewei Qin,
- Abstract要約: 本稿では、視線追跡技術を用いて、言語景観の実際の固定について研究する。
定着時間と定着時間の2次元において,在来中国語話者の言語景観への定着は,一般的な景観のそれよりも大きい。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Linguistic landscape is an important field in sociolinguistic research. Eye tracking technology is a common technology in psychological research. There are few cases of using eye movement to study linguistic landscape. This paper uses eye tracking technology to study the actual fixation of the linguistic landscape and finds that in the two dimensions of fixation time and fixation times, the fixation of native Chinese speakers to the linguistic landscape is higher than that of the general landscape. This paper argues that this phenomenon is due to the higher information density of linguistic landscapes. At the same time, the article also discusses other possible reasons for this phenomenon.
- Abstract(参考訳): 言語学のランドスケープは社会言語学研究において重要な分野である。
視線追跡技術は心理学研究において一般的な技術である。
言語学的景観を研究するために眼球運動を用いる例は少ない。
本稿では,言語景観の実際の定着時間と定着時間の2次元において,言語景観に対する中国語話者の定着度は,一般的な景観よりも高いことがわかった。
本稿は,この現象が言語景観の高次情報密度に起因することを論じる。
同時に、この記事は、この現象の他の可能性についても論じている。
関連論文リスト
- Analysis of the Evolution of Advanced Transformer-Based Language Models:
Experiments on Opinion Mining [0.5735035463793008]
本稿では,最先端のトランスフォーマーに基づく言語モデルの意見マイニングにおける挙動について検討する。
私たちの比較研究は、フォーカスするアプローチに関して、プロダクションエンジニアがリードし、道を開く方法を示しています。
論文 参考訳(メタデータ) (2023-08-07T01:10:50Z) - Periocular biometrics: databases, algorithms and directions [69.35569554213679]
近視バイオメトリックスは、制御されていない条件下での虹彩や顔のシステムの性能に関する懸念から、独立したモダリティとして確立されている。
本稿では, 近視バイオメトリックス研究における最先端技術について概説する。
論文 参考訳(メタデータ) (2023-07-26T11:14:36Z) - Linguistic More: Taking a Further Step toward Efficient and Accurate
Scene Text Recognition [92.6211155264297]
Scene Text Recognition (STR) タスクの単純さと効率性から,視覚モデルへの注目が高まっている。
最近の視覚モデルでは,(1)純粋な視覚に基づく問合せによって注意のドリフトが発生し,認識不良が生じ,言語的不感なドリフト(LID)問題として要約される。
我々は,正確なテキスト認識のための視覚モデルの言語的能力を検討するために,$textbfL$inguistic $textbfP$erception $textbfV$ision model (LPV)を提案する。
論文 参考訳(メタデータ) (2023-05-09T02:52:47Z) - A Large-Scale Multilingual Study of Visual Constraints on Linguistic
Selection of Descriptions [35.82822305925811]
本研究では,4言語と5つの言語特性(動詞の推移性や数字の使用など)を網羅し,視覚が言語選択をいかに制限するかを多言語的に検討する。
そこで本研究では,既存の画像コーパスをネイティブ話者によるキャプションで活用し,600k画像と3Mキャプションからなる9コーパスに適用する手法を提案する。
論文 参考訳(メタデータ) (2023-02-09T17:57:58Z) - Visual Grounding of Inter-lingual Word-Embeddings [6.136487946258519]
本研究では,単語埋め込みの言語間視覚的基盤について検討する。
実験では、英語、アラビア語、ドイツ語の3つの言語に焦点を当てています。
実験により,言語間知識が類似言語における接地埋め込みの性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2022-09-08T11:18:39Z) - Tell Me the Evidence? Dual Visual-Linguistic Interaction for Answer
Grounding [27.9150632791267]
本稿では,言語応答と視覚的接地機能を備えた新しいエンドツーエンドフレームワークであるDual Visual-Linguistic Interaction (DaVI)を提案する。
1)視覚的特徴が組み込まれた質問を理解し,さらに回答の復号化のための言語指向のエビデンスを生成する視覚的言語的エンコーダ,2)回答グラウンド化のためのエビデンス関連領域に視覚的特徴に焦点を当てた言語的視覚的デコーダである。
論文 参考訳(メタデータ) (2022-06-21T03:15:27Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - From Two to One: A New Scene Text Recognizer with Visual Language
Modeling Network [70.47504933083218]
本稿では,視覚情報と言語情報を結合として見る視覚言語モデリングネットワーク(VisionLAN)を提案する。
VisionLANは39%のスピード向上を実現し、正確な認識のための視覚的特徴を高めるために言語情報を適応的に検討する。
論文 参考訳(メタデータ) (2021-08-22T07:56:24Z) - From Show to Tell: A Survey on Image Captioning [48.98681267347662]
視覚と言語を結びつけることは、ジェネレーティブ・インテリジェンスにおいて重要な役割を担っている。
画像キャプションの研究はまだ結論に達していない。
本研究の目的は,画像キャプション手法の包括的概要と分類を提供することである。
論文 参考訳(メタデータ) (2021-07-14T18:00:54Z) - Vision and Language: from Visual Perception to Content Creation [100.36776435627962]
言語へのビジョン"は、おそらく過去5年で最も人気のあるトピックの1つである。
本稿は、これらの2つの側面に沿った最近の進歩、すなわち「言語へのビジョン」と「視覚への言語」を概観する。
論文 参考訳(メタデータ) (2019-12-26T14:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。