論文の概要: Cognition-aware Cognate Detection
- arxiv url: http://arxiv.org/abs/2112.08087v1
- Date: Wed, 15 Dec 2021 12:48:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 20:09:40.545141
- Title: Cognition-aware Cognate Detection
- Title(参考訳): 認知認識コグネート検出
- Authors: Diptesh Kanojia, Prashant Sharma, Sayali Ghodekar, Pushpak
Bhattacharyya, Gholamreza Haffari, Malhar Kulkarni
- Abstract要約: 本稿では,ヒトの視線行動から抽出した認知的特徴を用いた特徴集合の強化手法を提案する。
視線行動データを収集し,コグネート検出のタスクにおいて,認知的特徴の抽出が有用であることを示す。
収集した視線行動データを用いて、より大きなサンプルに対する認知的特徴を予測し、予測された認知的特徴がタスク性能を著しく改善することを示す。
- 参考スコア(独自算出の注目度): 46.69412510723641
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic detection of cognates helps downstream NLP tasks of Machine
Translation, Cross-lingual Information Retrieval, Computational Phylogenetics
and Cross-lingual Named Entity Recognition. Previous approaches for the task of
cognate detection use orthographic, phonetic and semantic similarity based
features sets. In this paper, we propose a novel method for enriching the
feature sets, with cognitive features extracted from human readers' gaze
behaviour. We collect gaze behaviour data for a small sample of cognates and
show that extracted cognitive features help the task of cognate detection.
However, gaze data collection and annotation is a costly task. We use the
collected gaze behaviour data to predict cognitive features for a larger sample
and show that predicted cognitive features, also, significantly improve the
task performance. We report improvements of 10% with the collected gaze
features, and 12% using the predicted gaze features, over the previously
proposed approaches. Furthermore, we release the collected gaze behaviour data
along with our code and cross-lingual models.
- Abstract(参考訳): コグネートの自動検出は、機械翻訳、言語間情報検索、計算系統解析、言語間名前付きエンティティ認識の下流のnlpタスクを支援する。
コグネート検出のタスクに対する従来のアプローチは、正書法、音声学的、意味的類似性に基づく特徴集合を用いる。
本稿では,人間の視線行動から認知的特徴を抽出し,特徴集合を豊かにするための新しい手法を提案する。
視線行動データを収集し,コグネート検出のタスクにおいて,認知的特徴の抽出が有用であることを示す。
しかし、データ収集とアノテーションはコストのかかるタスクである。
収集した視線行動データを用いて、より大きなサンプルに対する認知的特徴を予測し、予測された認知的特徴がタスク性能を著しく改善することを示す。
これまでに提案した手法と比較して, 収集した視線特徴の10%, 予測した視線特徴の12%の改善を報告した。
さらに,収集した視線行動データをコードと言語横断モデルとともにリリースする。
関連論文リスト
- When to generate hedges in peer-tutoring interactions [1.0466434989449724]
この研究は、自然言語のターン、会話戦略、学習戦略、非言語行動に注釈を付けた、自然主義的な対面データセットを使用している。
その結果、前のターンのセマンティック情報をキャプチャする埋め込み層は、モデルの性能を著しく向上させることがわかった。
教師の視線とタテの視線がヘッジ予測に大きく影響していることが判明した。
論文 参考訳(メタデータ) (2023-07-28T14:29:19Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Bridging between Cognitive Processing Signals and Linguistic Features
via a Unified Attentional Network [25.235060468310696]
本稿では,認知処理信号と言語的特徴との関連性を検討するためのデータ駆動手法を提案する。
我々は、埋め込み、注意、エンコーディング、予測層からなる統合された注意フレームワークを提案する。
提案するフレームワークは,単一の認知データセットを用いて,幅広い言語的特徴を検出するために利用できる。
論文 参考訳(メタデータ) (2021-12-16T12:25:11Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - CogAlign: Learning to Align Textual Neural Representations to Cognitive
Language Processing Signals [60.921888445317705]
自然言語処理モデルに認知言語処理信号を統合するためのCogAlignアプローチを提案する。
我々は、CogAlignが、パブリックデータセット上の最先端モデルよりも、複数の認知機能で大幅な改善を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-10T07:10:25Z) - Understanding Failures of Deep Networks via Robust Feature Extraction [44.204907883776045]
本研究では,視覚的特徴を識別し,不在や不在がパフォーマンスの低下を招き,失敗を特徴づけ,説明することを目的とした手法を紹介し,検討する。
我々は、分離されたロバストモデルの表現を活用して、解釈可能な特徴を抽出し、これらの特徴を利用して障害モードを特定します。
論文 参考訳(メタデータ) (2020-12-03T08:33:29Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。