論文の概要: What is Learned in Visually Grounded Neural Syntax Acquisition
- arxiv url: http://arxiv.org/abs/2005.01678v2
- Date: Mon, 18 May 2020 19:19:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:55:27.945590
- Title: What is Learned in Visually Grounded Neural Syntax Acquisition
- Title(参考訳): 視覚的接地型ニューラル構文獲得で学んだこと
- Authors: Noriyuki Kojima, Hadar Averbuch-Elor, Alexander M. Rush, Yoav Artzi
- Abstract要約: 本稿では,視覚的接地型ニューラルシンタクス学習者のケーススタディについて考察する。
モデルの簡易バージョンを構築することにより、モデルの強い性能をもたらすコアファクタを分離する。
名詞具象性の単純な語彙信号がモデルの予測に主要な役割を果たすことがわかった。
- 参考スコア(独自算出の注目度): 118.6461386981381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual features are a promising signal for learning bootstrap textual models.
However, blackbox learning models make it difficult to isolate the specific
contribution of visual components. In this analysis, we consider the case study
of the Visually Grounded Neural Syntax Learner (Shi et al., 2019), a recent
approach for learning syntax from a visual training signal. By constructing
simplified versions of the model, we isolate the core factors that yield the
model's strong performance. Contrary to what the model might be capable of
learning, we find significantly less expressive versions produce similar
predictions and perform just as well, or even better. We also find that a
simple lexical signal of noun concreteness plays the main role in the model's
predictions as opposed to more complex syntactic reasoning.
- Abstract(参考訳): ビジュアル機能はブートストラップテキストモデルを学習するための有望な信号である。
しかし、ブラックボックス学習モデルは、視覚的コンポーネントの特定の貢献を分離するのが困難である。
本稿では,視覚訓練信号から構文を学習するための最近のアプローチである,視覚接地型ニューラルシンタクス学習者(shi et al., 2019)のケーススタディについて考察する。
モデルの単純化されたバージョンを構築することで、モデルの強力なパフォーマンスをもたらすコア要素を分離します。
モデルが学習できることとは対照的に、表現力に乏しいバージョンは同じような予測を生成し、同じように、あるいはさらに良い結果を得る。
また、より複雑な構文的推論とは対照的に、名詞具体性の単純な語彙信号がモデルの予測において主要な役割を果たすことも見いだした。
関連論文リスト
- On the Foundations of Shortcut Learning [20.53986437152018]
予測と可用性が形状モデルの特徴的利用とどのように相互作用するかを考察する。
線形モデルは比較的偏りがないが、ReLUやTanhの単位を持つ単一の隠蔽層を導入するとバイアスが生じる。
論文 参考訳(メタデータ) (2023-10-24T22:54:05Z) - Specify Robust Causal Representation from Mixed Observations [35.387451486213344]
観測から純粋に表現を学習することは、予測モデルに有利な低次元のコンパクトな表現を学習する問題を懸念する。
本研究では,観測データからこのような表現を学習するための学習手法を開発した。
理論的および実験的に、学習された因果表現で訓練されたモデルは、敵の攻撃や分布シフトの下でより堅牢であることを示す。
論文 参考訳(メタデータ) (2023-10-21T02:18:35Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [47.7950860342515]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - Localization vs. Semantics: Visual Representations in Unimodal and
Multimodal Models [57.08925810659545]
既存の視覚・言語モデルと視覚のみのモデルにおける視覚表現の比較分析を行う。
我々の経験的観察は、視覚・言語モデルがラベル予測タスクに優れていることを示唆している。
我々の研究は、視覚学習における言語の役割に光を当て、様々な事前学習モデルの実証的なガイドとして機能することを願っている。
論文 参考訳(メタデータ) (2022-12-01T05:00:18Z) - Knowledge Transfer For On-Device Speech Emotion Recognition with Neural
Structured Learning [19.220263739291685]
音声感情認識(SER)は、ヒューマン・コンピュータ・インタラクション(HCI)において人気のある研究トピックである。
合成グラフ構築によるニューラル構造化学習(NSL)フレームワークを提案する。
実験の結果,音声サンプルとグラフを用いた軽量SERモデルの訓練は,小さなSERモデルを生成するだけでなく,モデル性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-10-26T18:38:42Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Visually Grounded Compound PCFGs [65.04669567781634]
言語理解のための視覚的基盤の爆発は、最近多くの注目を集めている。
本研究では,視覚的な文法誘導について検討し,未ラベルテキストとその視覚的キャプションから選挙区を学習する。
論文 参考訳(メタデータ) (2020-09-25T19:07:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。