論文の概要: Greedy Grammar Induction with Indirect Negative Evidence
- arxiv url: http://arxiv.org/abs/2312.15321v1
- Date: Sat, 23 Dec 2023 18:43:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 18:40:03.678931
- Title: Greedy Grammar Induction with Indirect Negative Evidence
- Title(参考訳): 間接的否定的証拠を用いたグレディ文法誘導
- Authors: Joseph Potashnik
- Abstract要約: 本稿では,文脈自由文法の有限構造情報に対する上界として,励起補題定数を新たに検討する。
間接的負の証拠に基づく目的関数は、有限個の木の発生と非発生を考察する。
この学習者によって、コンテキスト自由言語の様々なクラスが、他の難解な仮説空間で学習可能であることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper offers a fresh look at the pumping lemma constant as an upper
bound for the finite structural information of a Context Free Grammar. An
objective function based on indirect negative evidence considers the
occurrences, and non-occurrences, of a finite number of trees, encountered
after a sufficiently long non-adversial input presentation. This objective
function has optimal substructure in the hypotheses space, giving rise to a
greedy search learner. With this learner, a range of classes of Context Free
Languages is shown to be learnable (identifiable in the limit) on an otherwise
intractable hypotheses space.
- Abstract(参考訳): 本稿では, 文脈自由文法の有限構造情報の上限として, ポンピング補題定数を新たに検討する。
間接的負のエビデンスに基づく目的関数は、十分長い非逆入力プレゼンテーションの後に遭遇する有限個の木の出現と非発生を考察する。
この目的関数は仮説空間の最適部分構造を持ち、欲求的な探索学習者を生み出す。
この学習者によって、コンテキスト自由言語のクラスは、他の難解な仮説空間上で学習可能である(極限で特定できる)ことが示される。
関連論文リスト
- Non-uniform Online Learning: Towards Understanding Induction [3.4991031406102238]
非一様オンライン学習の概念を導入し、帰納的推論の原理とより密接に一致していると主張している。
実現可能な設定では、有限誤差で学習可能性の完全な特徴づけを提供する。
結果をより現実的な設定にまで拡張し、Littlestoneクラスの可算和が後悔して学習できることを示します。
論文 参考訳(メタデータ) (2023-11-30T20:02:25Z) - Semantic-Aware Contrastive Sentence Representation Learning with Large
Language Models [64.348539675761]
本稿では,セマンティック・アウェア・コントラッシブな文表現フレームワークであるSemCSRを提案する。
大規模言語モデル(LLM)の生成と評価機能を利用することで,高品質なNLI型コーパスを自動構築する。
論文 参考訳(メタデータ) (2023-10-17T03:21:43Z) - Extending an Event-type Ontology: Adding Verbs and Classes Using
Fine-tuned LLMs Suggestions [0.0]
語彙拡張タスクに先進的な機械学習手法を用いて事前アノテートしたデータについて検討した。
自動スコアと人間のアノテーションの相関について検討した。
相関性は強いが, アノテーションの固有性に対する影響は, ほぼ線形性から緩やかである。
論文 参考訳(メタデータ) (2023-06-03T14:57:47Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - Not another Negation Benchmark: The NaN-NLI Test Suite for Sub-clausal
Negation [59.307534363825816]
否定は現在の言語モデルでは不十分だが、この問題の範囲は広く理解されていない。
自然言語推論(NLI)テストスイートを導入し,NLP手法の能力を検証した。
論文 参考訳(メタデータ) (2022-10-06T23:39:01Z) - Generative or Contrastive? Phrase Reconstruction for Better Sentence
Representation Learning [86.01683892956144]
句再構成に基づく新たな自己教師型学習目標を提案する。
我々の生成学習は、十分強力な文表現をもたらし、コントラスト学習と同等の文文類似性タスクで性能を達成することができる。
論文 参考訳(メタデータ) (2022-04-20T10:00:46Z) - Natural Language Deduction through Search over Statement Compositions [43.93269297653265]
本稿では,タスクを最優先探索で協調したステップに分解する自然言語推論システムを提案する。
実験により,提案システムは検証不可能な仮説と検証不可能な仮説をよりよく区別できることを示した。
論文 参考訳(メタデータ) (2022-01-16T12:05:48Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - Let's be explicit about that: Distant supervision for implicit discourse
relation classification via connective prediction [0.0]
暗黙の談話関係分類では,任意の談話接続が存在しない場合,隣り合う文間の関係を予測したい。
我々は,暗黙関係の明示を通じてデータ不足を回避し,タスクを2つのサブプロブレム(言語モデリングと明示的談話関係分類)に減らした。
実験結果から,本手法は同等性能の代替モデルよりも遥かに単純であるにもかかわらず,最先端技術よりもはるかに優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T17:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。