論文の概要: The Singleton Fallacy: Why Current Critiques of Language Models Miss the
Point
- arxiv url: http://arxiv.org/abs/2102.04310v1
- Date: Mon, 8 Feb 2021 16:12:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:45:06.944957
- Title: The Singleton Fallacy: Why Current Critiques of Language Models Miss the
Point
- Title(参考訳): シングルトン誤り: 言語モデルに対する現在の批判が欠落している理由
- Authors: Magnus Sahlgren, Fredrik Carlsson
- Abstract要約: 本稿では,ニューラルネットワークに基づく自然言語理解(Nugual Language Understanding, NLU)ソリューションに対する現在の批判について論じる。
言語の使用、意味、理解にはさまざまな種類があり、(現在の)言語モデルは言語の構造的理解の1つのタイプの獲得と表現という明確な目的を持って構築されていると論じる。
- 参考スコア(独自算出の注目度): 3.096615629099618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper discusses the current critique against neural network-based
Natural Language Understanding (NLU) solutions known as language models. We
argue that much of the current debate rests on an argumentation error that we
will refer to as the singleton fallacy: the assumption that language, meaning,
and understanding are single and uniform phenomena that are unobtainable by
(current) language models. By contrast, we will argue that there are many
different types of language use, meaning and understanding, and that (current)
language models are build with the explicit purpose of acquiring and
representing one type of structural understanding of language. We will argue
that such structural understanding may cover several different modalities, and
as such can handle several different types of meaning. Our position is that we
currently see no theoretical reason why such structural knowledge would be
insufficient to count as "real" understanding.
- Abstract(参考訳): 本稿では、ニューラルネットワークに基づく自然言語理解(NLU)ソリューションに対する現在の批判について論じる。
現在の議論の多くは、言語、意味、理解は(現在の)言語モデルでは達成不可能な単一現象であり、一様現象であるという仮定である。
対照的に、言語の使用、意味、理解にはさまざまな種類があり、(現在の)言語モデルは、言語の構造的理解の1つのタイプの獲得と表現という明確な目的を持って構築されていると論じる。
このような構造的理解はいくつかの異なるモダリティをカバーし、いくつかの異なる種類の意味を扱うことができると論じる。
私たちの立場は、そのような構造的知識が「本当の」理解として数えられないという理論的理由が、現在見当たらないということです。
関連論文リスト
- Finding Structure in Language Models [3.882018118763685]
この論文は、言語モデルが人間のものと似た文法構造を深く理解しているかどうかに関するものである。
我々は,大規模言語モデルの複雑な性質の理解を深める新しい解釈可能性技術を開発する。
論文 参考訳(メタデータ) (2024-11-25T14:37:24Z) - On General Language Understanding [18.2932386988379]
本稿では,モデル品質の測定方法の妥当性に関する疑問を解き明かすことができる理解モデルの概要を概説する。
A) 異なる言語使用状況タイプが異なる特徴を持っていること、B) 言語理解は多面的な現象であること、C) 理解指標の選択はベンチマークの限界を示すこと、である。
論文 参考訳(メタデータ) (2023-10-27T10:36:54Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - What does the Failure to Reason with "Respectively" in Zero/Few-Shot
Settings Tell Us about Language Models? [5.431715810374623]
言語モデル (LM) が, 統語論的, 常識的, 常識的知識の2つの視点から, それぞれの読解に対してどのような意味を持つかを示す。
微調整されたNLIモデルは、明確な監督なしに、そのような読解の理解に苦慮していることを示す。
論文 参考訳(メタデータ) (2023-05-31T06:45:09Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Machine Reading, Fast and Slow: When Do Models "Understand" Language? [59.897515617661874]
本稿では,2つの言語スキル(コア参照の解決と比較)に関して,理解モデルを読み取る行動について検討する。
比較のため(コアではない)、より大きなエンコーダに基づくシステムは、より「正しい」情報に依存する傾向にあることがわかった。
論文 参考訳(メタデータ) (2022-09-15T16:25:44Z) - Norm Participation Grounds Language [16.726800816202033]
私は、どのような基礎言語が規範的な性質であるのかという考え方を、異なる、より広範に提案します。
物事を正しく行うための基準があり、これらの標準は公然と権威があり、同時に権威の受容が議論され、交渉される。
言語がどのような基盤となるかは、言語ユーザーがそれを利用する決定的な方法であり、それが根底にあるのは、言語利用者のコミュニティである。
論文 参考訳(メタデータ) (2022-06-06T20:21:59Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。