論文の概要: Towards a Transformer-Based Reverse Dictionary Model for Quality
Estimation of Definitions
- arxiv url: http://arxiv.org/abs/2311.02985v1
- Date: Mon, 6 Nov 2023 09:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 15:02:03.215186
- Title: Towards a Transformer-Based Reverse Dictionary Model for Quality
Estimation of Definitions
- Title(参考訳): 定義の品質推定のためのトランスベース逆辞書モデルの提案
- Authors: Guit\'e-Vinet Julien, Blondin Mass\'e Alexandre, Sadat Fatiha
- Abstract要約: 本稿では,逆辞書タスクを解くためのトランスフォーマーモデルを比較し,本ゲームと呼ばれる真剣なゲームのコンテキストにおいて,それらの使用を探索する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last years, several variants of transformers have emerged. In this
paper, we compare different transformer-based models for solving the reverse
dictionary task and explore their use in the context of a serious game called
The Dictionary Game.
- Abstract(参考訳): 近年、いくつかの変圧器が登場している。
本稿では,逆辞書タスクを解くためのトランスフォーマーモデルを比較し,本ゲームと呼ばれる真剣なゲームのコンテキストにおいて,それらの使用を探索する。
関連論文リスト
- Explaining How Transformers Use Context to Build Predictions [0.1749935196721634]
言語生成モデルは、以前の文脈に基づいて単語を生成する。
レイヤ全体にわたって、事前の言葉がモデルの判断にどのような影響を及ぼすかは、いまだに不明である。
本稿では,トランスフォーマーの説明可能性の最近の進歩を活用し,言語生成のためのモデル解析手法を提案する。
論文 参考訳(メタデータ) (2023-05-21T18:29:10Z) - A variational autoencoder-based nonnegative matrix factorisation model
for deep dictionary learning [13.796655751448288]
非負行列分解(NMF)を用いた辞書の構築は、信号処理や機械学習に広く応用されている。
可変オートエンコーダ(VAE)を用いて非負の辞書学習を行う確率的生成モデルを提案する。
論文 参考訳(メタデータ) (2023-01-18T02:36:03Z) - Foundation Transformers [105.06915886136524]
我々は、真の汎用モデリングのためのファンデーショントランスフォーマーの開発を求めている。
本研究では,その目的を達成するための変圧器の変種であるマグニートーを導入する。
論文 参考訳(メタデータ) (2022-10-12T17:16:27Z) - Transformer-based Detection of Multiword Expressions in Flower and Plant
Names [9.281156301926769]
MWE (Multiword Expression) は、個々の単語から派生していない意味を集合的に表す単語の列である。
本稿では,花名や植物名中のMWEを検出する作業において,最先端のニューラルトランスフォーマーについて検討する。
論文 参考訳(メタデータ) (2022-09-16T15:59:55Z) - Paragraph-based Transformer Pre-training for Multi-Sentence Inference [99.59693674455582]
マルチ候補推論タスクの微調整に使用する場合,一般的な事前学習型トランスフォーマーは性能が良くないことを示す。
次に、複数の入力文にまたがる段落レベルの意味をモデル化する新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2022-05-02T21:41:14Z) - Long Range Arena: A Benchmark for Efficient Transformers [115.1654897514089]
ロングレンジアリーナベンチマーク(Long-rangearena benchmark)は、1Kドルから16Kドルまでの一連のタスクからなるスイートである。
我々は,新たに提案したベンチマークスイートを用いて,よく確立された10種類の長距離トランスフォーマーモデルを体系的に評価した。
論文 参考訳(メタデータ) (2020-11-08T15:53:56Z) - Assessing Phrasal Representation and Composition in Transformers [13.460125148455143]
ディープトランスモデルはNLPタスクのパフォーマンスを新たな限界に押し上げた。
本稿では,最先端の事前学習型トランスにおけるフレーズ表現の系統的解析を行う。
これらのモデルにおける句表現は、単語の内容に大きく依存しており、ニュアンスな構成の証拠はほとんどない。
論文 参考訳(メタデータ) (2020-10-08T04:59:39Z) - Applying the Transformer to Character-level Transduction [68.91664610425114]
この変換器は、様々な単語レベルのNLPタスクにおいて、繰り返しニューラルネットワークに基づくシーケンス・ツー・シーケンスモデルより優れていることが示されている。
十分なバッチサイズで、トランスフォーマーは文字レベルタスクの繰り返しモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-20T17:25:43Z) - Variational Transformers for Diverse Response Generation [71.53159402053392]
変分変換器(VT)は、変分自己注意フィードフォワードシーケンスモデルである。
VTはトランスフォーマーの並列化性と大域的受容場計算とCVAEの変動特性を組み合わせる。
本稿では,1)大域潜伏変数を用いた談話レベルの多様性のモデル化,2)細粒潜伏変数の列によるトランスフォーマーデコーダの拡張,の2種類のVTについて検討する。
論文 参考訳(メタデータ) (2020-03-28T07:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。