論文の概要: Odor Descriptor Understanding through Prompting
- arxiv url: http://arxiv.org/abs/2205.03719v1
- Date: Sat, 7 May 2022 20:44:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 16:17:52.964386
- Title: Odor Descriptor Understanding through Prompting
- Title(参考訳): プロンプトによる匂い記述者理解
- Authors: Laura Sisson
- Abstract要約: 嗅覚的意味とより密に一致した匂いの単語の埋め込みを生成する2つの方法を提案する。
これらの生成した埋め込みは、既存のゼロショット特有のNLPベンチマークにおいて、従来の最先端および同時代の微調整/プロンプト法よりも優れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embeddings from contemporary natural language processing (NLP) models are
commonly used as numerical representations for words or sentences. However,
odor descriptor words, like "leather" or "fruity", vary significantly between
their commonplace usage and their olfactory usage, as a result traditional
methods for generating these embeddings do not suffice. In this paper, we
present two methods to generate embeddings for odor words that are more closely
aligned with their olfactory meanings when compared to off-the-shelf
embeddings. These generated embeddings outperform the previous state-of-the-art
and contemporary fine-tuning/prompting methods on a pre-existing zero-shot
odor-specific NLP benchmark.
- Abstract(参考訳): 現代自然言語処理(NLP)モデルの埋め込みは、単語や文の数値表現として一般的に用いられる。
しかし、"leather"や"fruity"のような匂い記述詞の単語は、一般的な場所の使用法と嗅覚の使用法の間に大きく違いがあり、その結果、これらの埋め込みを生成する伝統的な方法では十分ではない。
そこで本研究では,本研究では,嗅覚的意味とより密に一致した匂い単語の埋め込みを生成する2つの手法を提案する。
これらの生成した埋め込みは、既存のゼロショット特有のNLPベンチマークにおいて、従来の最先端および同時代の微調整/プロンプト法よりも優れている。
関連論文リスト
- Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - CCPrefix: Counterfactual Contrastive Prefix-Tuning for Many-Class
Classification [57.62886091828512]
多クラス分類のための新しいプレフィックスチューニング手法であるCCPrefixを提案する。
基本的に、ラベル空間における実数対から派生したインスタンス依存の軟式接頭辞は、多クラス分類における言語動詞化を補完するために利用される。
論文 参考訳(メタデータ) (2022-11-11T03:45:59Z) - From meaning to perception -- exploring the space between word and odor
perception embeddings [0.30458514384586394]
嗅覚の埋め込み(または匂いの埋め込み)を得るためにWord2vecアルゴリズムを提案する。
これらの埋め込みの意義は、美学が分布意味論によって動機付けられたアルゴリズムを使用するのに十分な制約を与える可能性があることを示唆している。
また, 実際の香水とランダムに生成した香水の相違に基づき, 香水の美的性質を理解するために, 埋め込みを用いている。
論文 参考訳(メタデータ) (2022-03-19T10:44:20Z) - Imputing Out-of-Vocabulary Embeddings with LOVE Makes Language Models
Robust with Little Cost [5.672132510411465]
最先端のNLPシステムは、単語埋め込みを伴う入力を表すが、外語彙の単語に直面すると、これらは不安定である。
我々は,単語の表面形のみを用いて事前学習した埋め込みの挙動を学習することにより,未知語に対するベクトルを生成するための模倣様モデルの原理に従う。
本稿では,既存の事前学習型言語モデル(BERTなど)の単語表現を拡張したシンプルなコントラスト学習フレームワークLOVEを提案する。
論文 参考訳(メタデータ) (2022-03-15T13:11:07Z) - Lacking the embedding of a word? Look it up into a traditional
dictionary [0.2624902795082451]
従来の辞書で検索された定義を用いて,稀な単語に対する単語埋め込みを生成することを提案する。
DefiNNetとDefBERTは、未知の単語の埋め込みを生成するためのベースラインメソッドと同様に、最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-09-24T06:27:58Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Obtaining Better Static Word Embeddings Using Contextual Embedding
Models [53.86080627007695]
提案手法はCBOWをベースとした簡易な蒸留法である。
副作用として、我々の手法は文脈的および静的な埋め込みの公正な比較を可能にする。
論文 参考訳(メタデータ) (2021-06-08T12:59:32Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Deconstructing word embedding algorithms [17.797952730495453]
我々は、最もよく知られた単語埋め込みアルゴリズムのいくつかについて振り返りを提案する。
本研究では,Word2vec,GloVe,その他を共通形式に分解し,実演語埋め込みに必要な共通条件を明らかにした。
論文 参考訳(メタデータ) (2020-11-12T14:23:35Z) - GiBERT: Introducing Linguistic Knowledge into BERT through a Lightweight
Gated Injection Method [29.352569563032056]
本稿では,言語知識を単語埋め込みの形で,事前学習したBERTに明示的に注入する手法を提案する。
依存性ベースと逆適合の埋め込みを注入する場合、複数のセマンティックな類似性データセットのパフォーマンス改善は、そのような情報が有益であり、現在元のモデルから欠落していることを示している。
論文 参考訳(メタデータ) (2020-10-23T17:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。