論文の概要: Grammar-Based Grounded Lexicon Learning
- arxiv url: http://arxiv.org/abs/2202.08806v1
- Date: Thu, 17 Feb 2022 18:19:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 14:30:43.083077
- Title: Grammar-Based Grounded Lexicon Learning
- Title(参考訳): 文法に基づく基底辞書学習
- Authors: Jiayuan Mao, Haoyue Shi, Jiajun Wu, Roger P. Levy, Joshua B. Tenenbaum
- Abstract要約: G2L2は、構成的および基礎的な言語表現を学ぶための語彙主義的なアプローチである。
G2L2の中核には語彙エントリの集まりがあり、各単語を構文型とニューロシンボリックセマンティックプログラムにマッピングする。
G2L2は、少量のデータから新しい単語合成へと一般化することができる。
- 参考スコア(独自算出の注目度): 64.01879827073705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Grammar-Based Grounded Lexicon Learning (G2L2), a lexicalist
approach toward learning a compositional and grounded meaning representation of
language from grounded data, such as paired images and texts. At the core of
G2L2 is a collection of lexicon entries, which map each word to a tuple of a
syntactic type and a neuro-symbolic semantic program. For example, the word
shiny has a syntactic type of adjective; its neuro-symbolic semantic program
has the symbolic form {\lambda}x. filter(x, SHINY), where the concept SHINY is
associated with a neural network embedding, which will be used to classify
shiny objects. Given an input sentence, G2L2 first looks up the lexicon entries
associated with each token. It then derives the meaning of the sentence as an
executable neuro-symbolic program by composing lexical meanings based on
syntax. The recovered meaning programs can be executed on grounded inputs. To
facilitate learning in an exponentially-growing compositional space, we
introduce a joint parsing and expected execution algorithm, which does local
marginalization over derivations to reduce the training time. We evaluate G2L2
on two domains: visual reasoning and language-driven navigation. Results show
that G2L2 can generalize from small amounts of data to novel compositions of
words.
- Abstract(参考訳): 本稿では,文法に基づく接地辞書学習(G2L2)について述べる。
G2L2の中核には、各単語を構文型のタプルとニューロシンボリックセマンティックプログラムにマッピングする辞書エントリのコレクションがある。
例えば、shiny という単語は形容詞の構文型を持ち、そのニューロシンボリックな意味プログラムは記号形式 {\lambda}x を持つ。
これはshiNYの概念がニューラルネットワークの埋め込みと関連付けられており、光沢のあるオブジェクトを分類するために使用される。
入力文が与えられた後、G2L2はまず各トークンに関連する辞書エントリを検索する。
次に、構文に基づいた語彙的意味を合成することにより、実行可能な神経シンボリックプログラムとして文の意味を導出する。
回収された意味プログラムは、接地入力で実行することができる。
指数関数的に成長する合成空間における学習を容易にするために,学習時間を削減するために,導出上の局所辺縁化を行う合同解析および期待実行アルゴリズムを提案する。
視覚的推論と言語駆動ナビゲーションの2つの領域でG2L2を評価する。
その結果、g2l2は少量のデータから新しい単語合成に一般化できることがわかった。
関連論文リスト
- Are BabyLMs Second Language Learners? [48.85680614529188]
本稿では,BabyLM Challengeの2024年版に対する言語的動機づけのアプローチについて述べる。
第1言語学習(L1)パラダイムを追求するのではなく,第2言語(L2)学習の観点から,課題にアプローチする。
論文 参考訳(メタデータ) (2024-10-28T17:52:15Z) - Presence or Absence: Are Unknown Word Usages in Dictionaries? [6.185216877366987]
我々は,フィンランド語,ロシア語,ドイツ語の共用課題であるAXOLOTL-24の評価を行った。
未知の単語使用量と辞書エントリ間のマッピングを予測するために,グラフベースのクラスタリング手法を用いる。
私たちのシステムはフィンランド語とドイツ語で第1位、ロシア語で第2位、Subtask 2テストフェーズのリーダーボードで第2位にランクインします。
論文 参考訳(メタデータ) (2024-06-02T07:57:45Z) - Description-Enhanced Label Embedding Contrastive Learning for Text
Classification [65.01077813330559]
モデル学習プロセスにおける自己監督型学習(SSL)と新しい自己監督型関係関係(R2)分類タスクの設計
テキスト分類とR2分類を最適化対象として扱うテキスト分類のための関係学習ネットワーク(R2-Net)の関係について検討する。
ラベルセマンティックラーニングのためのマルチアスペクト記述を得るためのWordNetからの外部知識。
論文 参考訳(メタデータ) (2023-06-15T02:19:34Z) - Always Keep your Target in Mind: Studying Semantics and Improving
Performance of Neural Lexical Substitution [124.99894592871385]
本稿では,従来の言語モデルと最近の言語モデルの両方を用いた語彙置換手法の大規模比較研究を行う。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによるすでに競合する結果がさらに大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-07T16:16:19Z) - Confusion2vec 2.0: Enriching Ambiguous Spoken Language Representations
with Subwords [28.004852127707025]
Confusion2vecは、人間の音声言語に存在するあいまいさを符号化する単語ベクトル表現である。
このサブワードエンコーディングは,人間の音声言語における知覚的あいまいさの表現に有効であることを示す。
論文 参考訳(メタデータ) (2021-02-03T20:03:50Z) - Can a Fruit Fly Learn Word Embeddings? [16.280120177501733]
フルーツフライ脳は、神経科学で最も研究されたシステムの1つです。
ネットワークモチーフは単語の意味表現を学習し,静的および文脈依存の単語埋め込みを生成できることを示す。
また,fruit fly networkのモチーフはnlpの既存の手法に匹敵する性能を実現するだけでなく,計算資源のほんの一部しか使用できないことを示した。
論文 参考訳(メタデータ) (2021-01-18T05:41:50Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Embedding Words in Non-Vector Space with Unsupervised Graph Learning [33.51809615505692]
GraphGlove: エンドツーエンドで学習される教師なしグラフワード表現について紹介する。
我々の設定では、各単語は重み付きグラフのノードであり、単語間の距離は対応するノード間の最短経路距離である。
グラフに基づく表現は、単語類似性や類似性タスクにおいて、ベクターベースの手法よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-10-06T10:17:49Z) - Graph-Structured Referring Expression Reasoning in The Wild [105.95488002374158]
接地参照表現は、自然言語表現によって参照されるオブジェクトのイメージ中を特定することを目的としている。
本研究では,シーングラフとシーングラフの推論を行うために,シーングラフガイドモジュールネットワーク(SGMN)を提案する。
また,構造化参照式推論のための大規模実世界のデータセットRef-Reasoningを提案する。
論文 参考訳(メタデータ) (2020-04-19T11:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。