論文の概要: Exploring Category Structure with Contextual Language Models and Lexical
Semantic Networks
- arxiv url: http://arxiv.org/abs/2302.06942v1
- Date: Tue, 14 Feb 2023 09:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 15:44:03.460255
- Title: Exploring Category Structure with Contextual Language Models and Lexical
Semantic Networks
- Title(参考訳): 文脈言語モデルと語彙意味ネットワークを用いたカテゴリー構造探索
- Authors: Joseph Renner (MAGNET), Pascal Denis (MAGNET), R\'emi Gilleron,
Ang\`ele Brunelli\`ere (SCALab)
- Abstract要約: 我々は、典型値の予測のために、CLMを探索するためのより広い範囲の手法を試験する。
BERTを用いた実験では,CLMプローブの適切な利用の重要性が示された。
その結果, この課題における多義性の重要性が浮き彫りとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work on predicting category structure with distributional models,
using either static word embeddings (Heyman and Heyman, 2019) or contextualized
language models (CLMs) (Misra et al., 2021), report low correlations with human
ratings, thus calling into question their plausibility as models of human
semantic memory. In this work, we revisit this question testing a wider array
of methods for probing CLMs for predicting typicality scores. Our experiments,
using BERT (Devlin et al., 2018), show the importance of using the right type
of CLM probes, as our best BERT-based typicality prediction methods
substantially improve over previous works. Second, our results highlight the
importance of polysemy in this task: our best results are obtained when using a
disambiguation mechanism. Finally, additional experiments reveal that
Information Contentbased WordNet (Miller, 1995), also endowed with
disambiguation, match the performance of the best BERT-based method, and in
fact capture complementary information, which can be combined with BERT to
achieve enhanced typicality predictions.
- Abstract(参考訳): 静的な単語埋め込み(heyman and heyman, 2019)または文脈化言語モデル(clms, misra et al., 2021)を使用して、分布モデルによるカテゴリ構造を予測する最近の研究は、人間の格付けとの相関が低いことを報告し、人間の意味記憶のモデルとしてその可能性に疑問を投げかけている。
本研究では,CLMを探索し,典型値の予測を行う手法について検討する。
BERT (Devlin et al., 2018) を用いた本実験では, CLMプローブの適切なタイプを用いることの重要性が示唆された。
第2に, この課題における多義性の重要性を強調し, 曖昧化機構を用いた場合の最良の結果を得た。
最後に、情報コンテンツベースのWordNet (Miller, 1995) も曖昧さを伴い、最高のBERTベースの手法の性能と一致し、実際、BERTと組み合わせてより洗練された典型予測を実現するための補完的な情報を取得する。
関連論文リスト
- Evaluating LLM Prompts for Data Augmentation in Multi-label Classification of Ecological Texts [1.565361244756411]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクにおいて重要な役割を果たす。
本研究では,ロシアのソーシャルメディアにおけるグリーンプラクティスの言及を検出するために,プロンプトベースのデータ拡張を適用した。
論文 参考訳(メタデータ) (2024-11-22T12:37:41Z) - Align-SLM: Textless Spoken Language Models with Reinforcement Learning from AI Feedback [50.84142264245052]
テキストレス音声言語モデル(SLM)のセマンティック理解を強化するためのAlign-SLMフレームワークを導入する。
提案手法は、与えられたプロンプトから複数の音声継続を生成し、意味的指標を用いて、直接選好最適化(DPO)のための選好データを生成する。
語彙および構文モデリングのためのZeroSpeech 2021ベンチマーク、意味的コヒーレンスのためのStoryClozeデータセットの音声バージョン、GPT4-oスコアや人間評価などの音声生成指標を用いて、フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-11-04T06:07:53Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Pre-trained Language Models for Keyphrase Generation: A Thorough
Empirical Study [76.52997424694767]
事前学習言語モデルを用いて,キーフレーズ抽出とキーフレーズ生成の詳細な実験を行った。
PLMは、競争力のある高リソース性能と最先端の低リソース性能を持つことを示す。
さらに,領域内のBERTライクなPLMを用いて,強大かつデータ効率のよいキーフレーズ生成モデルを構築できることが示唆された。
論文 参考訳(メタデータ) (2022-12-20T13:20:21Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z) - Meeting Summarization with Pre-training and Clustering Methods [6.47783315109491]
HMNetcitehmnetは、ワードレベルのトランスフォーマーとターンレベルのトランスフォーマーの両方をベースラインとして使用する階層型ネットワークである。
中間クラスタリングステップでQMSumciteqmsumの位置列列化アプローチを拡張する。
ベースラインモデルの性能を,要約に有効な最先端言語モデルであるBARTと比較する。
論文 参考訳(メタデータ) (2021-11-16T03:14:40Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - Improved Semantic Role Labeling using Parameterized Neighborhood Memory
Adaptation [22.064890647610348]
本稿では,アクティベーションのメモリにおける近接するトークンのパラメータ化表現を用いたパラメータ化近傍メモリ適応(PNMA)手法を提案する。
単語埋め込みの種類に関係なく,PNMAはベースモデルのSRL性能を一貫して改善することを示す。
論文 参考訳(メタデータ) (2020-11-29T22:51:25Z) - Coarse-to-Fine Memory Matching for Joint Retrieval and Classification [0.7081604594416339]
共同検索と分類のための新しいエンドツーエンド言語モデルを提案する。
FEVERファクト検証データセットの標準ブラインドテストセットで評価する。
我々は、モデルを分析・制約するためのこの設定に、模範監査を拡張します。
論文 参考訳(メタデータ) (2020-11-29T05:06:03Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。