論文の概要: Normal Forms for (Semantically) Witness-Based Learners in Inductive
Inference
- arxiv url: http://arxiv.org/abs/2010.09461v1
- Date: Thu, 15 Oct 2020 09:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:28:49.335860
- Title: Normal Forms for (Semantically) Witness-Based Learners in Inductive
Inference
- Title(参考訳): インダクティブ推論における(逐次的に)知性に基づく学習者の正規形式
- Authors: Vanja Dosko\v{c} and Timo K\"otzing
- Abstract要約: 本研究では,形式言語を推論する学習者(計算可能なデバイス)について,限定的あるいは帰納的推論において言語学習と呼ばれる設定について検討する。
調査対象の学習者は,それぞれの心の変化を正当化するために,証人に基づく学習を行う。
セット駆動のグローバルなセマンティックな目撃者ベースの学習者は、ゴールドスタイルのセマンティックな保守的な学習者と同じくらい強力であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study learners (computable devices) inferring formal languages, a setting
referred to as language learning in the limit or inductive inference. In
particular, we require the learners we investigate to be witness-based, that
is, to justify each of their mind changes. Besides being a natural requirement
for a learning task, this restriction deserves special attention as it is a
specialization of various important learning paradigms. In particular, with the
help of witness-based learning, explanatory learners are shown to be equally
powerful under these seemingly incomparable paradigms. Nonetheless, until now,
witness-based learners have only been studied sparsely.
In this work, we conduct a thorough study of these learners both when
requiring syntactic and semantic convergence and obtain normal forms thereof.
In the former setting, we extend known results such that they include
witness-based learning and generalize these to hold for a variety of learners.
Transitioning to behaviourally correct learning, we also provide normal forms
for semantically witness-based learners. Most notably, we show that set-driven
globally semantically witness-based learners are equally powerful as their
Gold-style semantically conservative counterpart. Such results are key to
understanding the, yet undiscovered, mutual relation between various important
learning paradigms when learning behaviourally correctly.
- Abstract(参考訳): 本研究では,形式言語を推論する学習者(計算可能なデバイス)について,限定的あるいは帰納的推論において言語学習と呼ばれる設定について検討する。
特に、調査対象の学習者は、証人に基づく、つまり、それぞれの心の変化を正当化する必要がある。
学習課題の自然な要件であるだけでなく、この制限は様々な重要な学習パラダイムの専門化であり、特別な注意に値する。
特に、証人に基づく学習の助けを借りて、説明的学習者は、これらの相容れないパラダイムの下で等しく強力であることが示されている。
しかし、これまでは証人ベースの学習者は少なからぬ研究しか行われていなかった。
本研究では,構文的および意味的収束を必要とする場合と,その正規形を求める場合の両方において,これらの学習者の徹底的な研究を行う。
前者では、証人ベースの学習を含む既知の結果を拡張し、これらを一般化して様々な学習者を保持する。
行動学的に正しい学習へと移行し、意味的目撃者に基づく学習者には通常の形式を提供する。
とくに、セット駆動のグローバルなセマンティックな目撃者ベースの学習者は、ゴールドスタイルのセマンティックな保守的な学習者と同じくらい強力であることを示す。
このような結果は、振る舞いを正しく学習する際の重要な学習パラダイム間の相互関係を理解する上で重要である。
関連論文リスト
- A Distributional Perspective on Word Learning in Neural Language Models [57.41607944290822]
言語モデルにおける単語学習のための広く合意されたメトリクスは存在しない。
我々は、先行研究で研究された分布シグネチャは、重要な分布情報の取得に失敗すると主張している。
我々は、スクラッチから訓練する小さな言語モデルを選択するための学習軌跡を得る。
論文 参考訳(メタデータ) (2025-02-09T13:15:59Z) - Reframing linguistic bootstrapping as joint inference using visually-grounded grammar induction models [31.006803764376475]
意味的・統語的ブートストラッピング・ポジトリ(Semantic and Syntactic bootstrapping posit)とは、子供が特定の言語領域についての事前の知識、例えば構文的関係(syntactic relations)を使い、後に新しい単語の意味などの他の知識を取得する手助けをするものである。
ここでは、両者が、言語習得のためのより一般的な学習戦略である共同学習に固執していると論じる。
一連の視覚的文法帰納モデルを用いて,構文と意味が同時に学習された場合に,構文的および意味的ブートストラップ効果が最強であることが実証された。
論文 参考訳(メタデータ) (2024-06-17T18:01:06Z) - Babysit A Language Model From Scratch: Interactive Language Learning by Trials and Demonstrations [15.394018604836774]
本稿では, 学生の試行, 教師のデモンストレーション, 言語能力に配慮した報酬の3つの要素を組み込んだTnD学習フレームワークを提案する。
実験の結果,TnD手法は等数あるいは少人数の学生モデルの単語獲得を促進させることがわかった。
この結果から,対話型言語学習は,教師による実演や学生の試行を通じて,言語モデルにおける効率的な単語学習を促進することが示唆された。
論文 参考訳(メタデータ) (2024-05-22T16:57:02Z) - A Definition of Continual Reinforcement Learning [69.56273766737527]
強化学習問題の標準的な見方では、エージェントの目標は、長期的な報酬を最大化するポリシーを効率的に識別することである。
継続的強化学習とは、最高のエージェントが決して学習をやめない状態を指す。
エージェントの分析とカタログ化のための新しい数学的言語を通じて「学習をやめることはない」エージェントの概念を定式化する。
論文 参考訳(メタデータ) (2023-07-20T17:28:01Z) - Diversifying Joint Vision-Language Tokenization Learning [51.82353485389527]
画像とテキスト間で共同表現を構築することは、ビジュアル質問回答やビデオ質問回答といったタスクにとって重要なステップである。
トークン化学習プロセスの多様化による共同視覚言語表現学習を提案する。
論文 参考訳(メタデータ) (2023-06-06T05:41:42Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Self-Evolution Learning for Discriminative Language Model Pretraining [103.57103957631067]
自己進化学習(Self-Evolution Learning、SE)は、単純で効果的なトークンマスキングと学習方法である。
SEは情報的だが未探索のトークンを学習することに集中し、新しいToken固有のラベル平滑化アプローチを導入してトレーニングを適応的に調整する。
論文 参考訳(メタデータ) (2023-05-24T16:00:54Z) - Investigating Forgetting in Pre-Trained Representations Through
Continual Learning [51.30807066570425]
事前学習した言語モデルの汎用性に及ぼす表現忘れの影響について検討する。
様々な事前学習されたLMで一般化が破壊され,構文的・意味的知識は連続学習によって忘れられることがわかった。
論文 参考訳(メタデータ) (2023-05-10T08:27:59Z) - A Linguistic Investigation of Machine Learning based Contradiction
Detection Models: An Empirical Analysis and Future Perspectives [0.34998703934432673]
本稿では,2つの自然言語推論データセットについて,その言語的特徴について分析する。
目標は、特に機械学習モデルを理解するのが難しい、構文的および意味的特性を特定することである。
論文 参考訳(メタデータ) (2022-10-19T10:06:03Z) - Do Language Models Learn Position-Role Mappings? [1.4548651568912523]
位置ロールマッピングの知識を示す言語モデル(BERT,RoBERTa,DistilBERT)について検討した。
実験1では、これらのニューラルモデルが、テーマと受け手の役割の区別を実際に認識していることが示される。
実験2では、これらの言語モデルを1つのパラダイムで新しいテーマや受信者のようなトークンで微調整することで、モデルが他のパラダイムにおけるそれらの配置について正しい予測をすることができることを示す。
論文 参考訳(メタデータ) (2022-02-08T02:50:53Z) - Towards a theory of out-of-distribution learning [23.878004729029644]
本稿では,PAC学習フレームワークを用いて,異なる学習課題を定義するための時系列的アプローチを提案する。
まずは流通学習から始め、最近提案された生涯学習や継続学習へと進む。
この研究によって、さまざまなタイプの学習を定量化する、普遍的に合意されたアプローチがもたらされることを期待しています。
論文 参考訳(メタデータ) (2021-09-29T15:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。