論文の概要: Language Models as an Alternative Evaluator of Word Order Hypotheses: A
Case Study in Japanese
- arxiv url: http://arxiv.org/abs/2005.00842v1
- Date: Sat, 2 May 2020 14:32:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 12:33:50.996827
- Title: Language Models as an Alternative Evaluator of Word Order Hypotheses: A
Case Study in Japanese
- Title(参考訳): 語順仮説の代替評価者としての言語モデル--日本語の事例研究
- Authors: Tatsuki Kuribayashi, Takumi Ito, Jun Suzuki, Kentaro Inui
- Abstract要約: 本稿では,ニューラルネットワークモデル(LM)を用いて単語の順序を解析する手法について検討する。
本手法が単語の順序分析に有効かどうかを検討する。
LMは分析ツールとして使うのに十分な単語順の知識を提示する。
- 参考スコア(独自算出の注目度): 45.80297329300326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We examine a methodology using neural language models (LMs) for analyzing the
word order of language. This LM-based method has the potential to overcome the
difficulties existing methods face, such as the propagation of preprocessor
errors in count-based methods. In this study, we explore whether the LM-based
method is valid for analyzing the word order. As a case study, this study
focuses on Japanese due to its complex and flexible word order. To validate the
LM-based method, we test (i) parallels between LMs and human word order
preference, and (ii) consistency of the results obtained using the LM-based
method with previous linguistic studies. Through our experiments, we
tentatively conclude that LMs display sufficient word order knowledge for usage
as an analysis tool. Finally, using the LM-based method, we demonstrate the
relationship between the canonical word order and topicalization, which had yet
to be analyzed by large-scale experiments.
- Abstract(参考訳): 本稿では,ニューラルネットワークモデル(LM)を用いて語順を解析する手法について検討する。
このlmベースの方法は、カウントベースメソッドにおけるプリプロセッサエラーの伝播など、既存のメソッドが直面する困難を克服する可能性を秘めている。
本研究では,LMに基づく手法が単語順の分析に有効かどうかを検討する。
ケーススタディとして本研究は,日本語の語順が複雑で柔軟性が高いことに着目した。
LM法の有効性を検証するために
(i) lmsと人間の語順の嗜好の類似、及び
(ii)以前の言語研究とlm法を用いて得られた結果の整合性について。
実験の結果,LMは分析ツールとして用いるのに十分な語順の知識を示すことがわかった。
最後に, lm法を用いて, 大規模実験では解析されていない正準語順と話題化の関係を示す。
関連論文リスト
- Large Language Models as Neurolinguistic Subjects: Identifying Internal Representations for Form and Meaning [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
伝統的な精神言語学的評価は、しばしばLSMの真の言語能力を誤って表現する統計バイアスを反映している。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - How to Make the Most of LLMs' Grammatical Knowledge for Acceptability Judgments [22.76776244036282]
言語モデル(LM)の文法的知識は、言語的最小対のベンチマークを用いてしばしば測定される。
しかし、既存の支配的アプローチは、LMを用いてペア化された文の確率をネーティブに計算し、比較する。
LLMの文法的知識を活かして総合的に評価する方法について検討する。
論文 参考訳(メタデータ) (2024-08-19T01:53:47Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Zero-shot Causal Graph Extrapolation from Text via LLMs [50.596179963913045]
我々は,自然言語から因果関係を推定する大規模言語モデル (LLM) の能力を評価する。
LLMは、(特別な)トレーニングサンプルを必要とせずにペア関係のベンチマークで競合性能を示す。
我々は、反復的なペアワイズクエリを通して因果グラフを外挿するアプローチを拡張した。
論文 参考訳(メタデータ) (2023-12-22T13:14:38Z) - Evaluating Neural Language Models as Cognitive Models of Language
Acquisition [4.779196219827507]
我々は、ニューラルネットワークモデルの構文能力を評価するための最も顕著なベンチマークは、十分に厳密でないかもしれないと論じる。
小規模データモデリングによる子言語習得を訓練すると、LMは単純なベースラインモデルで容易にマッチングできる。
子どもの言語習得に関する実証的研究と、LMをよりよく結びつけるための提案をまとめて締めくくった。
論文 参考訳(メタデータ) (2023-10-31T00:16:17Z) - Investigating the Effect of Language Models in Sequence Discriminative
Training for Neural Transducers [36.60689278751483]
文脈長の異なる言語モデル (LM) と, 逐次識別訓練に用いるラベル単位 (音素対単語) の効果について検討した。
Librispeech 実験の結果,単語レベルLM は音素レベルLM よりも優れていた。
この結果から, 系列識別訓練における仮説空間の質の重要性が示唆された。
論文 参考訳(メタデータ) (2023-10-11T09:53:17Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - The Language Model Understood the Prompt was Ambiguous: Probing
Syntactic Uncertainty Through Generation [23.711953448400514]
このような分析に対して,ニューラルネットワークモデル(LM)がどの程度不確実性を示すかを調べる。
LMは複数の解析を同時に追跡できることがわかった。
曖昧な手がかりに対する応答として、LMは正しい解釈を選択することが多いが、時々エラーは改善の潜在的な領域を示す。
論文 参考訳(メタデータ) (2021-09-16T10:27:05Z) - Language Models Use Monotonicity to Assess NPI Licensing [8.856422030608188]
言語モデル(LM)の意味的知識について検討する。
本研究は、これらのLMが意味的単調性特性に基づいて言語環境のカテゴリを作成するかどうか、およびこれらのカテゴリが人間の言語理解と同様の役割を担っているかどうかに焦点を当てる。
論文 参考訳(メタデータ) (2021-05-28T13:32:00Z) - Language Model Prior for Low-Resource Neural Machine Translation [85.55729693003829]
ニューラル翻訳モデル (TM) において, LM を事前に組み込む新しい手法を提案する。
正規化項を追加し、TMの出力分布をLMの下で予測可能とする。
2つの低リソース機械翻訳データセットの結果は、限られたモノリンガルデータであっても明らかな改善を示している。
論文 参考訳(メタデータ) (2020-04-30T16:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。