論文の概要: What are the Goals of Distributional Semantics?
- arxiv url: http://arxiv.org/abs/2005.02982v1
- Date: Wed, 6 May 2020 17:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:32:19.660557
- Title: What are the Goals of Distributional Semantics?
- Title(参考訳): 分布意味論の目標は何か?
- Authors: Guy Emerson
- Abstract要約: 私は、現在のモデルが様々なセマンティックな課題にいかにうまく対処できるかを、幅広い言語学的視点で見ていく。
言語的な洞察はモデルアーキテクチャの設計を導くことができるが、将来の進歩には言語表現性と計算的トラクタビリティの相反する要求のバランスが必要である、と私は結論付けている。
- 参考スコア(独自算出の注目度): 12.640283469603355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributional semantic models have become a mainstay in NLP, providing
useful features for downstream tasks. However, assessing long-term progress
requires explicit long-term goals. In this paper, I take a broad linguistic
perspective, looking at how well current models can deal with various semantic
challenges. Given stark differences between models proposed in different
subfields, a broad perspective is needed to see how we could integrate them. I
conclude that, while linguistic insights can guide the design of model
architectures, future progress will require balancing the often conflicting
demands of linguistic expressiveness and computational tractability.
- Abstract(参考訳): 分散セマンティックモデルはNLPのメインステイとなり、下流タスクに有用な機能を提供する。
しかし、長期的な進歩を評価するには明確な長期的な目標が必要である。
本稿では,現在のモデルが様々な意味的課題にどのように対処できるかを考察し,幅広い言語学的視点から考察する。
異なるサブフィールドで提案されたモデル間の大きな違いを考えると、それらをどのように統合できるかを見るために幅広い視点が必要である。
言語的な洞察はモデルアーキテクチャの設計を導くことができるが、将来の進歩には言語表現性と計算的トラクタビリティの相反する要求のバランスが必要である、と私は結論付けている。
関連論文リスト
- Transforming Hidden States into Binary Semantic Features [0.0]
我々は再び意味の分布論を採用することを提案する。
独立成分分析を用いて、その難易度を克服し、大きな言語モデルがそれらの隠れ状態における意味的特徴を表現することを示す。
論文 参考訳(メタデータ) (2024-09-29T22:23:52Z) - Integrating Self-supervised Speech Model with Pseudo Word-level Targets
from Visually-grounded Speech Model [57.78191634042409]
擬似単語レベルのターゲットを学習プロセスに統合するフレームワークであるPseudo-Word HuBERT(PW-HuBERT)を提案する。
4つの音声言語理解(SLU)ベンチマークによる実験結果から,意味情報の収集におけるモデルの有用性が示唆された。
論文 参考訳(メタデータ) (2024-02-08T16:55:21Z) - Entity Embeddings : Perspectives Towards an Omni-Modality Era for Large
Language Models [0.0]
大規模言語モデル(LLM)は、テキスト、画像、音声などの複数のモダリティを統一された言語空間に統合するために進化している。
我々は、テキストのシーケンスで定義された概念的実体がモダリティとして想像できる未来の方向性を思い描いている。
論文 参考訳(メタデータ) (2023-10-27T17:04:10Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Visual Chain of Thought: Bridging Logical Gaps with Multimodal
Infillings [61.04460792203266]
本稿では, 逐次データ内の論理的ギャップを埋めるために, 視覚言語による接地を促進させる, チェーン・オブ・シントを利用する新しい手法であるVCoTを紹介する。
本手法は,下流タスクの論理的ギャップを低減するために,一貫した情報と新しい情報を加える合成マルチモーダル埋め込みを生成するために視覚誘導を用いる。
論文 参考訳(メタデータ) (2023-05-03T17:58:29Z) - Black-box language model explanation by context length probing [7.526153863886609]
本稿では、因果言語モデルのための新しい説明手法である文脈長探索について述べる。
この技術はモデルに依存しず、トークンレベルの確率の計算以上のモデル内部へのアクセスに依存しない。
事前学習された大規模言語モデルに文脈長探索を適用し、初期分析と洞察を提供する。
論文 参考訳(メタデータ) (2022-12-30T16:24:10Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Analyzing the Limits of Self-Supervision in Handling Bias in Language [52.26068057260399]
我々は、言語モデルが、認識、識別、抽出、言い換えの4つのタスクのセマンティクスをいかにうまく捉えているかを評価する。
分析の結果,言語モデルでは,ジェンダーや政治的アフィリエイトなど,様々なバイアス次元にまたがって,これらのタスクを広範囲にわたって実行することが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-16T05:36:08Z) - Multi-Sense Language Modelling [19.396806939258806]
我々は,次の単語を予測できるだけでなく,文脈における意味を予測できる言語モデルを提案する。
この高い予測粒度は、補助的な記述のようなエンドタスクに有用である。
感覚予測には,定義や単語感覚の例を符号化したグラフ注意ネットワークを利用する。
論文 参考訳(メタデータ) (2020-12-10T16:06:05Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。