論文の概要: Greedy Grammar Induction with Indirect Negative Evidence
- arxiv url: http://arxiv.org/abs/2312.15321v1
- Date: Sat, 23 Dec 2023 18:43:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 18:40:03.678931
- Title: Greedy Grammar Induction with Indirect Negative Evidence
- Title(参考訳): 間接的否定的証拠を用いたグレディ文法誘導
- Authors: Joseph Potashnik
- Abstract要約: 本稿では,文脈自由文法の有限構造情報に対する上界として,励起補題定数を新たに検討する。
間接的負の証拠に基づく目的関数は、有限個の木の発生と非発生を考察する。
この学習者によって、コンテキスト自由言語の様々なクラスが、他の難解な仮説空間で学習可能であることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper offers a fresh look at the pumping lemma constant as an upper
bound for the finite structural information of a Context Free Grammar. An
objective function based on indirect negative evidence considers the
occurrences, and non-occurrences, of a finite number of trees, encountered
after a sufficiently long non-adversial input presentation. This objective
function has optimal substructure in the hypotheses space, giving rise to a
greedy search learner. With this learner, a range of classes of Context Free
Languages is shown to be learnable (identifiable in the limit) on an otherwise
intractable hypotheses space.
- Abstract(参考訳): 本稿では, 文脈自由文法の有限構造情報の上限として, ポンピング補題定数を新たに検討する。
間接的負のエビデンスに基づく目的関数は、十分長い非逆入力プレゼンテーションの後に遭遇する有限個の木の出現と非発生を考察する。
この目的関数は仮説空間の最適部分構造を持ち、欲求的な探索学習者を生み出す。
この学習者によって、コンテキスト自由言語のクラスは、他の難解な仮説空間上で学習可能である(極限で特定できる)ことが示される。
関連論文リスト
- XPrompt:Explaining Large Language Model's Generation via Joint Prompt Attribution [26.639271355209104]
LLM(Large Language Models)は複雑なテキスト生成タスクにおいて顕著なパフォーマンスを示す。
生成したコンテンツに対する入力プロンプトの寄与は、まだ人間には明らかでない。
本稿では,共同プロンプト帰属型XPromptに基づく実例説明フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T18:16:41Z) - Binning as a Pretext Task: Improving Self-Supervised Learning in Tabular Domains [0.565395466029518]
そこで本研究では,古典的ビンニング手法に基づく新しいプレテキストタスクを提案する。
その考え方は単純で、元の値ではなく、binインデックス(順序またはクラス)を再構築する。
我々の実証調査では、ビンニングの利点がいくつか確認されている。
論文 参考訳(メタデータ) (2024-05-13T01:23:14Z) - Dense X Retrieval: What Retrieval Granularity Should We Use? [56.90827473115201]
しばしば見過ごされる設計選択は、コーパスが索引付けされる検索単位である。
本稿では,高密度検索のための新しい検索ユニット,命題を提案する。
実験により、提案のような細粒度単位によるコーパスのインデックス付けは、検索タスクにおける通過レベル単位を著しく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-12-11T18:57:35Z) - Mitigating Word Bias in Zero-shot Prompt-based Classifiers [55.60306377044225]
一致したクラス先行は、オラクルの上界性能と強く相関していることを示す。
また,NLPタスクに対するプロンプト設定において,一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-09-10T10:57:41Z) - Extending an Event-type Ontology: Adding Verbs and Classes Using
Fine-tuned LLMs Suggestions [0.0]
語彙拡張タスクに先進的な機械学習手法を用いて事前アノテートしたデータについて検討した。
自動スコアと人間のアノテーションの相関について検討した。
相関性は強いが, アノテーションの固有性に対する影響は, ほぼ線形性から緩やかである。
論文 参考訳(メタデータ) (2023-06-03T14:57:47Z) - Conjunct Resolution in the Face of Verbal Omissions [51.220650412095665]
本稿では,テキスト上で直接動作する接続分解タスクを提案し,コーディネーション構造に欠けている要素を復元するために,分割・言い換えパラダイムを利用する。
クラウドソースアノテーションによる自然に発生する動詞の省略例を10万件以上を含む,大規模なデータセットをキュレートする。
我々は、このタスクのために様々な神経ベースラインをトレーニングし、最良の手法が適切なパフォーマンスを得る一方で、改善のための十分なスペースを残していることを示す。
論文 参考訳(メタデータ) (2023-05-26T08:44:02Z) - Sentence Representation Learning with Generative Objective rather than
Contrastive Objective [86.01683892956144]
句再構成に基づく新たな自己教師型学習目標を提案する。
我々の生成学習は、十分な性能向上を達成し、現在の最先端のコントラスト法よりも優れています。
論文 参考訳(メタデータ) (2022-10-16T07:47:46Z) - Geometry-Aware Supertagging with Heterogeneous Dynamic Convolutions [0.7868449549351486]
グラフ理論の観点から構築的なスーパータグ付けを再考する。
異種動的グラフ畳み込みに基づくフレームワークを提案する。
我々は、異なる言語にまたがる多くの分類文法データセットに対して、アプローチを検証した。
論文 参考訳(メタデータ) (2022-03-23T07:07:11Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Efficient strategies for hierarchical text classification: External
knowledge and auxiliary tasks [3.5557219875516655]
我々は、あるクラス分類の上位から下位まで、文書のカテゴリを予測するための一連の推論手順を実行する。
効率的なアプローチでは、よく知られた2つの英語データセットにおいて、パラメータを劇的に減らし、過去の研究を上回りました。
論文 参考訳(メタデータ) (2020-05-05T20:22:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。