論文の概要: BERT Knows Punta Cana is not just beautiful, it's gorgeous: Ranking
Scalar Adjectives with Contextualised Representations
- arxiv url: http://arxiv.org/abs/2010.02686v1
- Date: Tue, 6 Oct 2020 13:05:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:05:50.270087
- Title: BERT Knows Punta Cana is not just beautiful, it's gorgeous: Ranking
Scalar Adjectives with Contextualised Representations
- Title(参考訳): BERTがPunta Canaは美しいだけでなく、豪華だ: 文脈表現によるScalar形容詞のランク付け
- Authors: Aina Gar\'i Soler, Marianna Apidianaki
- Abstract要約: 本研究では,スカラー形容詞の強度検出のためのBERTに基づく新しい手法を提案する。
文脈表現から直接導出されるベクトルによる強度をモデル化し,スカラー形容詞のランク付けに成功していることを示す。
- 参考スコア(独自算出の注目度): 6.167728295758172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adjectives like pretty, beautiful and gorgeous describe positive properties
of the nouns they modify but with different intensity. These differences are
important for natural language understanding and reasoning. We propose a novel
BERT-based approach to intensity detection for scalar adjectives. We model
intensity by vectors directly derived from contextualised representations and
show they can successfully rank scalar adjectives. We evaluate our models both
intrinsically, on gold standard datasets, and on an Indirect Question Answering
task. Our results demonstrate that BERT encodes rich knowledge about the
semantics of scalar adjectives, and is able to provide better quality intensity
rankings than static embeddings and previous models with access to dedicated
resources.
- Abstract(参考訳): 美しく、美しく、豪華な形容詞は、修飾されるが強度が異なる名詞の肯定的な性質を表現している。
これらの違いは自然言語理解や推論において重要である。
本研究では,スカラー形容詞の強度検出のためのBERTに基づく新しい手法を提案する。
文脈表現から直接導出されるベクトルによる強度をモデル化し,スカラー形容詞のランク付けに成功していることを示す。
モデルは、本質的に、金の標準データセットと間接的な質問応答タスクの両方で評価します。
その結果, bert はスカラー形容詞の意味に関する豊富な知識をエンコードし, 静的組込みや, 専用リソースにアクセス可能な以前のモデルよりも優れた品質インテンシティランキングを提供することができた。
関連論文リスト
- Conjugated Semantic Pool Improves OOD Detection with Pre-trained Vision-Language Models [70.82728812001807]
ゼロショット・アウト・オブ・ディストリビューション(OOD)検出のための簡単なパイプラインでは、広範なセマンティックプールから潜在的OODラベルを選択する必要がある。
性能向上にはセマンティックプールの拡張が必要であると理論化します。
我々は,CSPによるOODラベル候補の拡大が要件を満たし,FPR95において既存の作品の7.89%を上回っていることを示す。
論文 参考訳(メタデータ) (2024-10-11T08:24:11Z) - Probing Large Language Models for Scalar Adjective Lexical Semantics and Scalar Diversity Pragmatics [11.79778723980276]
我々は、スカラー形容詞の語彙意味論の知識を得るために、大規模言語モデルの異なるファミリーを探索する。
それらがスカラー形容詞に関する豊富な語彙・意味情報を符号化していることがわかった。
私たちはまた、異なるサイズと複雑さの現在のモデルを比較し、より大きなモデルは必ずしも良いとは限らないことに気付きます。
論文 参考訳(メタデータ) (2024-04-04T08:52:25Z) - Instruction-following Evaluation through Verbalizer Manipulation [64.73188776428799]
本稿では,動詞操作と呼ばれる新しい指示追従評価プロトコルを提案する。
モデルにタスクラベルを、異なる範囲のモデル先行と整合した単語で言語化するように指示する。
異なる家族や規模にわたるモデルの指示追従能力は、より自然な話し手の性能によって著しく異なることが観察された。
論文 参考訳(メタデータ) (2023-07-20T03:54:24Z) - Not wacky vs. definitely wacky: A study of scalar adverbs in pretrained
language models [0.0]
BERT、RoBERTa、GPT-3といった現代の事前訓練された言語モデルは、古典的な静的単語の埋め込みよりも論理的なタスクでより良いパフォーマンスを期待している。
本稿では,BERT,RoBERTa,GPT-2,GPT-3が,これらの共通語に対する一般人的な知識を示す範囲について検討する。
論理的な意味のいくつかの側面を捉えているにもかかわらず、モデルは人間のパフォーマンスにかなり劣っていることが分かりました。
論文 参考訳(メタデータ) (2023-05-25T18:56:26Z) - Visualizing the Obvious: A Concreteness-based Ensemble Model for Noun
Property Prediction [34.37730333491428]
名詞の性質は他の種類の知識よりも抽出するのが困難である。
本稿では,これらの特性を画像から抽出し,アンサンブルモデルで使用し,言語モデルから抽出した情報を補完する手法を提案する。
提案したテキストと画像の組み合わせは,強力なテキストベース言語モデルと比較して,名詞特性の予測を大幅に改善することを示す。
論文 参考訳(メタデータ) (2022-10-24T01:25:21Z) - Disentangled Action Recognition with Knowledge Bases [77.77482846456478]
本研究では,新規な動詞や新規な名詞に対する合成行動認識モデルの一般化能力の向上を目指す。
従来の作業では、知識グラフ内の動詞-名詞合成アクションノードを使用しており、スケールを非効率にしている。
本提案手法は, 行動の固有な構成性を活用する, 知識ベースを用いた不整合行動認識(DARK)である。
論文 参考訳(メタデータ) (2022-07-04T20:19:13Z) - On Guiding Visual Attention with Language Specification [76.08326100891571]
注意をそらすのではなく,タスク関連機能に分類証拠を限定するためのアドバイスとして,ハイレベルな言語仕様を用いる。
この方法で空間的注意を監督することは、偏りのあるノイズのあるデータを用いた分類タスクの性能を向上させる。
論文 参考訳(メタデータ) (2022-02-17T22:40:19Z) - ALL Dolphins Are Intelligent and SOME Are Friendly: Probing BERT for
Nouns' Semantic Properties and their Prototypicality [4.915907527975786]
我々は、参照範囲を制限しない形容詞で表される英語の名詞を構成するためにBERT(Devlin et al.)を探索する。
本研究は,名詞間の関連性の強さと意味的特徴を捉える心理言語学的データセットに基づく。
そこで, BERTでは, 形容詞の意味を推論する上で必要な情報を活用することができた。
論文 参考訳(メタデータ) (2021-10-12T21:43:37Z) - Scalar Adjective Identification and Multilingual Ranking [4.915907527975786]
新しい言語におけるスカラー形容詞の研究を促進するために、新しい多言語データセットを導入します。
我々は、単言語および多言語文脈言語モデルを用いて、一連の実験を行い、このデータセットにパフォーマンスベースラインを設定する。
英語スカラー形容詞識別のための新しいバイナリ分類タスクを提案する。
論文 参考訳(メタデータ) (2021-05-03T21:32:41Z) - Investigating Cross-Linguistic Adjective Ordering Tendencies with a
Latent-Variable Model [66.84264870118723]
本稿では,多言語形容詞順序付けを潜在変数モデルとして,初めて純粋コーパス駆動モデルを提案する。
我々は普遍的、言語横断的、階層的形容詞順序付け傾向の存在の強い確固たる証拠を提供する。
論文 参考訳(メタデータ) (2020-10-09T18:27:55Z) - BURT: BERT-inspired Universal Representation from Twin Structure [89.82415322763475]
BURT (BERT inspired Universal Representation from Twin Structure) は任意の粒度の入力シーケンスに対して普遍的で固定サイズの表現を生成することができる。
提案するBURTは,Siameseネットワークを採用し,自然言語推論データセットから文レベル表現を学習し,パラフレーズ化データセットから単語/フレーズレベル表現を学習する。
我々は,STSタスク,SemEval2013 Task 5(a) など,テキスト類似性タスクの粒度によってBURTを評価する。
論文 参考訳(メタデータ) (2020-04-29T04:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。