論文の概要: BERT is to NLP what AlexNet is to CV: Can Pre-Trained Language Models
Identify Analogies?
- arxiv url: http://arxiv.org/abs/2105.04949v1
- Date: Tue, 11 May 2021 11:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 20:10:16.550675
- Title: BERT is to NLP what AlexNet is to CV: Can Pre-Trained Language Models
Identify Analogies?
- Title(参考訳): bert は nlp に、alexnet は cv: 事前学習された言語モデルはアナロジーを識別できるか?
- Authors: Asahi Ushio and Luis Espinosa-Anke and Steven Schockaert and Jose
Camacho-Collados
- Abstract要約: アナログを識別する教師なしタスクにおいて,トランスフォーマーに基づく言語モデルの性能を解析する。
オフザシェルフ言語モデルは、ある程度の類似を識別できるが、抽象的かつ複雑な関係に苦しむ。
本研究は,学習済み言語モデルがどのように抽象意味関係に関する知識を捉えているか,その程度について,今後の研究に向けて重要な疑問を提起するものである。
- 参考スコア(独自算出の注目度): 35.381345454627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analogies play a central role in human commonsense reasoning. The ability to
recognize analogies such as eye is to seeing what ear is to hearing, sometimes
referred to as analogical proportions, shape how we structure knowledge and
understand language. Surprisingly, however, the task of identifying such
analogies has not yet received much attention in the language model era. In
this paper, we analyze the capabilities of transformer-based language models on
this unsupervised task, using benchmarks obtained from educational settings, as
well as more commonly used datasets. We find that off-the-shelf language models
can identify analogies to a certain extent, but struggle with abstract and
complex relations, and results are highly sensitive to model architecture and
hyperparameters. Overall the best results were obtained with GPT-2 and RoBERTa,
while configurations using BERT were not able to outperform word embedding
models. Our results raise important questions for future work about how, and to
what extent, pre-trained language models capture knowledge about abstract
semantic relations\footnote{Source code and data to reproduce our experimental
results are available in the following repository:
\url{https://github.com/asahi417/analogy-language-model}}.
- Abstract(参考訳): アナロジーは人間の常識推論において中心的な役割を果たす。
目のようなアナロジーを認識する能力は、耳がどんな音を聴くかを見ることであり、時にはアナロジー比例と呼ばれ、知識の構造や言語を理解する方法を形成する。
しかし、驚くべきことに、そのような類似点を特定する作業は、言語モデル時代にはまだあまり注目されていない。
本稿では,この教師なしタスクにおけるトランスフォーマティブ言語モデルの能力について,教育環境から得られたベンチマークと,より一般的なデータセットを用いて分析する。
既製の言語モデルはある程度の類似を識別できるが、抽象的・複雑な関係に苦慮し、その結果はモデルアーキテクチャやハイパーパラメータに非常に敏感である。
GPT-2とRoBERTaで最高の結果を得たが、BERTを用いた構成では単語埋め込みモデルよりも優れていなかった。
我々の実験結果は、どのようにして訓練済みの言語モデルが抽象的意味関係に関する知識を取得するか、そしてどの程度の程度で、どのようにして抽象的意味関係に関する知識を取得するかについての重要な疑問を提起する。
関連論文リスト
- StoryAnalogy: Deriving Story-level Analogies from Large Language Models
to Unlock Analogical Understanding [72.38872974837462]
大規模ストーリーレベルの類似語コーパスを構築することにより,類似語を識別・生成する能力を評価する。
textscStory Analogyには、さまざまなドメインから24Kストーリーペアが含まれており、拡張された構造マッピング理論の2つの類似点に人間のアノテーションがある。
我々は、textscStory Analogyのデータは、大言語モデルにおけるアナログ生成の品質を向上させることができることを観察した。
論文 参考訳(メタデータ) (2023-10-19T16:29:23Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部動作を理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがこのCFG言語を正確に学習し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - ANALOGYKB: Unlocking Analogical Reasoning of Language Models with A Million-scale Knowledge Base [51.777618249271725]
ANALOGYKBは、既存の知識グラフ(KGs)から派生した100万スケールのアナロジー知識ベースである
1)KGから直接抽出できる同一関係のアナロジー、2)大きな言語モデル(LLM)によって実現される選択とフィルタリングパイプラインと識別される類似関係のアナロジーである。
論文 参考訳(メタデータ) (2023-05-10T09:03:01Z) - BRENT: Bidirectional Retrieval Enhanced Norwegian Transformer [1.911678487931003]
検索ベースの言語モデルは、質問応答タスクにますます採用されている。
我々はREALMフレームワークを適用し,ノルウェー初の検索モデルを開発した。
本研究では,このような学習により,抽出質問応答における読み手のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-04-19T13:40:47Z) - Is neural language acquisition similar to natural? A chronological
probing study [0.0515648410037406]
本稿では,MultiBERTやT5といったトランスフォーマー英語モデルの時系列探索について述べる。
コーパスの学習過程において,モデルが学習した言語に関する情報を比較した。
その結果,1)訓練の初期段階に言語情報を取得すること,2)両言語モデルが様々な言語レベルから様々な特徴を捉える能力を示した。
論文 参考訳(メタデータ) (2022-07-01T17:24:11Z) - TunBERT: Pretrained Contextualized Text Representation for Tunisian
Dialect [0.0]
表現不足言語に対するモノリンガルトランスフォーマーに基づく言語モデルのトレーニングの実現可能性について検討する。
構造化データの代わりにノイズの多いWebクローリングデータを使用することは、そのような非標準言語にとってより便利であることを示す。
我々の最高のパフォーマンスTunBERTモデルは、下流の3つのタスクすべてにおいて最先端のタスクに到達または改善します。
論文 参考訳(メタデータ) (2021-11-25T15:49:50Z) - Interpreting Language Models Through Knowledge Graph Extraction [42.97929497661778]
BERTに基づく言語モデルを,学習過程の逐次的な段階において取得した知識のスナップショットを通じて比較する。
本稿では, クローズイン・ザ・ブランク文から知識グラフを抽出し, 知識獲得のタイムラインを提示する手法を提案する。
この分析を, BERTモデル(DistilBERT, BERT-base, RoBERTa)の事前学習変化の比較に拡張する。
論文 参考訳(メタデータ) (2021-11-16T15:18:01Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。