論文の概要: Evaluating a Multi-sense Definition Generation Model for Multiple
Languages
- arxiv url: http://arxiv.org/abs/2006.07398v1
- Date: Fri, 12 Jun 2020 18:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 02:22:33.111635
- Title: Evaluating a Multi-sense Definition Generation Model for Multiple
Languages
- Title(参考訳): 複数言語に対するマルチセンス定義生成モデルの評価
- Authors: Arman Kabiri, Paul Cook
- Abstract要約: 本稿では,多義語埋め込みに基づく文脈に依存しない定義モデリング手法を提案する。
その結果,提案したマルチセンスモデルでは,全15データセットにおいて単一センスモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 1.5229257192293197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most prior work on definition modeling has not accounted for polysemy, or has
done so by considering definition modeling for a target word in a given
context. In contrast, in this study, we propose a context-agnostic approach to
definition modeling, based on multi-sense word embeddings, that is capable of
generating multiple definitions for a target word. In further, contrast to most
prior work, which has primarily focused on English, we evaluate our proposed
approach on fifteen different datasets covering nine languages from several
language families. To evaluate our approach we consider several variations of
BLEU. Our results demonstrate that our proposed multi-sense model outperforms a
single-sense model on all fifteen datasets.
- Abstract(参考訳): 定義モデリングに関するこれまでのほとんどの研究は、ポリセミズムを考慮していないか、あるいは特定の文脈における対象単語の定義モデリングを考慮している。
一方,本研究では,目的語に対する複数の定義を生成可能な多義語埋め込みに基づく定義モデリングにおける文脈に依存しない手法を提案する。
さらに、主に英語に焦点を当てたほとんどの先行研究とは対照的に、複数の言語ファミリーから9つの言語をカバーする15の異なるデータセットに対する提案手法を評価した。
我々のアプローチを評価するために、BLEUの様々なバリエーションを検討する。
その結果,提案したマルチセンスモデルは15個のデータセットに対して単一センスモデルよりも優れていた。
関連論文リスト
- Exploring Multiple Strategies to Improve Multilingual Coreference Resolution in CorefUD [0.0]
本稿では,エンド・ツー・エンドのニューラル・コアス・リゾリューションシステムについて述べる。
まず、モノリンガルとクロスリンガルのバリエーションを含む強力なベースラインモデルを構築します。
多様な言語文脈における性能向上のためのいくつかの拡張を提案する。
論文 参考訳(メタデータ) (2024-08-29T20:27:05Z) - Evaluating Large Language Models on Controlled Generation Tasks [92.64781370921486]
本稿では,異なる粒度を持つ文計画ベンチマークを含む,様々なベンチマークを広範囲に分析する。
大規模言語モデルと最先端の微調整された小型モデルを比較した後、大規模言語モデルが後方に落ちたり、比較されたり、より小型モデルの能力を超えたりしたスペクトルを示す。
論文 参考訳(メタデータ) (2023-10-23T03:48:24Z) - Multilingual Conceptual Coverage in Text-to-Image Models [98.80343331645626]
コンセプチュアル・カバー・アクロス言語(Conceptual Coverage Across Languages, CoCo-CroLa)とは、任意の生成的テキスト・画像システムにおいて、有形名詞の観点から学習言語に多言語対応を提供する程度をベンチマークする手法である。
各モデルについて、ソースコード中の一連の有形名詞に生成される画像の集団と、対象言語に翻訳された各名詞に生成された画像の集団とを比較することにより、ソース言語に対して与えられた対象言語の「概念的カバレッジ」を評価することができる。
論文 参考訳(メタデータ) (2023-06-02T17:59:09Z) - Exploiting Correlations Between Contexts and Definitions with Multiple
Definition Modeling [13.608157331662026]
単一定義モデリング(SDM)は、異なる文脈と単語の定義間の相関やパターンを適切にモデル化しない。
本稿では,対象単語のすべてのコンテキストと定義をプールする,MDM(Multiple Definition Modeling)と呼ばれる新しいタスクを設計する。
我々は,MDM を事前訓練タスクとして使用することにより,SDM の性能向上を含む MDM の利点を実演し,分析する。
論文 参考訳(メタデータ) (2023-05-24T04:38:29Z) - Black-box language model explanation by context length probing [7.526153863886609]
本稿では、因果言語モデルのための新しい説明手法である文脈長探索について述べる。
この技術はモデルに依存しず、トークンレベルの確率の計算以上のモデル内部へのアクセスに依存しない。
事前学習された大規模言語モデルに文脈長探索を適用し、初期分析と洞察を提供する。
論文 参考訳(メタデータ) (2022-12-30T16:24:10Z) - Language Model Cascades [72.18809575261498]
テスト時に1つのモデルで繰り返し対話する、あるいは複数のモデルの合成は、さらに機能を拡張する。
制御フローと動的構造を持つ場合、確率的プログラミングのテクニックが必要となる。
この観点から、スクラッチパッド/思考連鎖、検証器、STaR、選択推論、ツール利用など、いくつかの既存のテクニックを定式化します。
論文 参考訳(メタデータ) (2022-07-21T07:35:18Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - Multi-Sense Language Modelling [19.396806939258806]
我々は,次の単語を予測できるだけでなく,文脈における意味を予測できる言語モデルを提案する。
この高い予測粒度は、補助的な記述のようなエンドタスクに有用である。
感覚予測には,定義や単語感覚の例を符号化したグラフ注意ネットワークを利用する。
論文 参考訳(メタデータ) (2020-12-10T16:06:05Z) - VCDM: Leveraging Variational Bi-encoding and Deep Contextualized Word
Representations for Improved Definition Modeling [24.775371434410328]
定義モデリングの課題は、単語やフレーズの定義を学習することである。
このタスクの既存のアプローチは差別的であり、直接的ではなく暗黙的に分布的意味論と語彙的意味論を組み合わせたものである。
本稿では、文脈内で使われるフレーズとその定義の基盤となる関係を明示的にモデル化するために、連続潜時変数を導入したタスク生成モデルを提案する。
論文 参考訳(メタデータ) (2020-10-07T02:48:44Z) - Linguistic Structure Guided Context Modeling for Referring Image
Segmentation [61.701577239317785]
本稿では,マルチモーダルコンテキストを相互モーダル相互作用によりモデル化する「ガザ・プロパゲート・ディストリビュート」方式を提案する。
我々のLSCMモジュールは依存パーシングツリーワードグラフ(DPT-WG)を構築し、文の有効なマルチモーダルコンテキストを含むようにすべての単語を誘導する。
論文 参考訳(メタデータ) (2020-10-01T16:03:51Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。