論文の概要: Reducing Noise from Competing Neighbours: Word Retrieval with Lateral
Inhibition in Multilink
- arxiv url: http://arxiv.org/abs/2002.00730v1
- Date: Sat, 25 Jan 2020 16:40:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 00:07:12.026206
- Title: Reducing Noise from Competing Neighbours: Word Retrieval with Lateral
Inhibition in Multilink
- Title(参考訳): 競合相手からのノイズ低減:マルチリンクにおける側方抑制による単語検索
- Authors: Aaron van Geffen
- Abstract要約: マルチリンク(Multilink)は、単言語および多言語個人における単語検索の計算モデルである。
我々はMultilinkの語彙ネットワークに側方抑制を加えた。
データセット全体の最大相関は0.643 (N=1,205) であった。
我々はMultilinkに新たなタスクコンポーネントを追加し、言語間ホモグラフ、コニャート、言語固有の制御単語の翻訳過程を考慮した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multilink is a computational model for word retrieval in monolingual and
multilingual individuals under different task circumstances (Dijkstra et al.,
2018). In the present study, we added lateral inhibition to Multilink's lexical
network. Parameters were fit on the basis of reaction times from the English,
British, and Dutch Lexicon Projects. We found a maximum correlation of 0.643
(N=1,205) on these data sets as a whole. Furthermore, the simulations
themselves became faster as a result of adding lateral inhibition. We tested
the fitted model to stimuli from a neighbourhood study (Mulder et al., 2018).
Lateral inhibition was found to improve Multilink's correlations for this
study, yielding an overall correlation of 0.67. Next, we explored the role of
lateral inhibition as part of the model's task/decision system by running
simulations on data from two studies concerning interlingual homographs
(Vanlangendonck et al., in press; Goertz, 2018). We found that, while lateral
inhibition plays a substantial part in the word selection process, this alone
is not enough to result in a correct response selection. To solve this problem,
we added a new task component to Multilink, especially designed to account for
the translation process of interlingual homographs, cognates, and
language-specific control words. The subsequent simulation results showed
patterns remarkably similar to those in the Goertz study. The isomorphicity of
the simulated data to the empirical data was further attested by an overall
correlation of 0.538 (N=254) between reaction times and simulated model cycle
times, as well as a condition pattern correlation of 0.853 (N=8). We conclude
that Multilink yields an excellent fit to empirical data, particularly when a
task-specific setting of the inhibition parameters is allowed.
- Abstract(参考訳): マルチリンク(Multilink)は、単言語および多言語における異なるタスク状況下での単語検索の計算モデルである(Dijkstra et al., 2018)。
本研究では,Multilinkの語彙ネットワークに側方抑制を加えた。
パラメータは、イギリス、イギリス、オランダのレキシコンプロジェクトからの反応時間に基づいて決定された。
これらのデータセット全体の最大相関は0.643 (N=1,205) であった。
さらに, 側方抑制の付加によりシミュレーション自体が高速化された。
近隣研究(mulder et al., 2018)からの刺激に適合したモデルを用いて実験を行った。
側方抑制は multilink の相関を改善し, 総相関は 0.67 であった。
次に,言語間ホモグラフ(vanlangendonck et al. in press; goertz, 2018)に関する2つの研究から得られたデータを用いてシミュレーションを行い,モデルタスク/判断システムにおける側方抑制の役割を検討した。
その結果, 単語選択過程において側方抑制が重要な役割を担っているものの, これだけでは適切な応答選択はできないことがわかった。
この問題を解決するために, 言語間ホモグラフ, 認識, 言語固有の制御語の翻訳過程を考慮し, マルチリンクに新しいタスクコンポーネントを追加した。
その後のシミュレーション結果は、Goertz研究と非常によく似たパターンを示した。
実験データに対するシミュレーションデータの同型性は,反応時間とモデルサイクル時間との0.538(n=254)の全体相関と0.853(n=8)の条件パターン相関によってさらに検証された。
我々は,Multilinkが実験データ,特に抑制パラメータのタスク固有の設定を許容する場合に,優れた適合性が得られると結論付けた。
関連論文リスト
- MixRED: A Mix-lingual Relation Extraction Dataset [35.5919056167744]
我々はMixREと呼ばれる混合言語シナリオにおける関係抽出を考慮した新しいタスクを提案する。
MixREDデータセットの構築に加えて,MixRED上での最先端教師付きモデルと大規模言語モデル(LLM)の評価を行った。
論文 参考訳(メタデータ) (2024-03-23T03:18:14Z) - ECRC: Emotion-Causality Recognition in Korean Conversation for GCN [0.0]
本稿では,新しいグラフ構造に基づく会話モデル(ECRC)の感情因果認識を提案する。
本研究では,単語レベルの埋め込みと文レベルの埋め込みの両方を活用することで,過去の埋め込みの限界を克服する。
このモデルは、双方向長短期メモリ(Bi-LSTM)とグラフニューラルネットワーク(GCN)モデルを韓国の会話分析のために一意に統合する。
論文 参考訳(メタデータ) (2024-03-16T02:07:31Z) - "Knowing When You Don't Know": A Multilingual Relevance Assessment Dataset for Robust Retrieval-Augmented Generation [90.09260023184932]
Retrieval-Augmented Generation (RAG) は、外部の知識源を活用して、事実の幻覚を減らすことで、Large Language Model (LLM) を出力する。
NoMIRACLは18言語にまたがるRAGにおけるLDM堅牢性を評価するための人為的アノテーション付きデータセットである。
本研究は,<i>Halucination rate</i>,<i>Halucination rate</i>,<i>Halucination rate</i>,<i>Sorucination rate</i>,<i>Sorucination rate</i>,<i>Sorucination rate</i>,<i>Sorucination rate</i>,<i>Sorucination rate</i>,<i>Sorucination rate</i>,<i>Sr。
論文 参考訳(メタデータ) (2023-12-18T17:18:04Z) - PerturbScore: Connecting Discrete and Continuous Perturbations in NLP [64.28423650146877]
本稿では,離散摂動と連続摂動を結びつけることを目的とする。
回帰タスクをPerturbScoreとして設計し,相関関係を自動的に学習する。
離散摂動と連続摂動の接続を構築でき、提案したPerturbScoreを使ってそのような相関関係を学習できる。
論文 参考訳(メタデータ) (2023-10-13T06:50:15Z) - Understanding and Mitigating Spurious Correlations in Text
Classification with Neighborhood Analysis [69.07674653828565]
機械学習モデルは、トレーニングセットに存在するが一般的な状況では当てはまらない急激な相関を利用する傾向にある。
本稿では, 周辺分析と呼ばれる新しい視点から, 突発的相関がもたらす意味について考察する。
本稿では,テキスト分類における素早い相関を緩和する正規化手法であるNFL(doN't Forget your Language)を提案する。
論文 参考訳(メタデータ) (2023-05-23T03:55:50Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - Analyzing the Mono- and Cross-Lingual Pretraining Dynamics of
Multilingual Language Models [73.11488464916668]
本研究では,多言語事前学習プロセスのダイナミクスについて検討する。
我々は,XLM-Rプレトレーニング全体から抽出したチェックポイントを,一連の言語的タスクを用いて探索する。
分析の結果,より複雑なものよりも低レベルな言語スキルが得られ,早期に高い言語性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-05-24T03:35:00Z) - On the Relation between Syntactic Divergence and Zero-Shot Performance [22.195133438732633]
我々は、英語から多種多様な言語にパースするUniversal Dependencies (UD) を移譲し、2つの実験を行う。
我々は、英語のソースエッジが翻訳で保存される範囲に基づいてゼロショット性能を解析する。
両実験の結果から,言語間安定性とゼロショット解析性能の強い関係が示唆された。
論文 参考訳(メタデータ) (2021-10-09T21:09:21Z) - (Un)solving Morphological Inflection: Lemma Overlap Artificially
Inflates Models' Performance [7.2223831790495625]
本稿では, より厳密な列車-試験分割を用いて, 形態的インフレクションモデルの再評価を提案する。
SIGMORPHONの2020年のシェアリングタスクにおける上位3つのシステムによる実験では、レムマスプリットは平均30ポイントの低下を示している。
論文 参考訳(メタデータ) (2021-08-12T12:06:47Z) - Multi-timescale Representation Learning in LSTM Language Models [69.98840820213937]
言語モデルは、非常に短いから非常に長いまでの時間スケールで単語間の統計的依存関係を捉えなければならない。
我々は、長期記憶言語モデルにおけるメモリゲーティング機構が、パワーローの減衰を捉えることができるかの理論を導出した。
実験の結果,自然言語で学習したLSTM言語モデルは,この理論分布を近似することがわかった。
論文 参考訳(メタデータ) (2020-09-27T02:13:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。