論文の概要: Normal Forms for (Semantically) Witness-Based Learners in Inductive
Inference
- arxiv url: http://arxiv.org/abs/2010.09461v1
- Date: Thu, 15 Oct 2020 09:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:28:49.335860
- Title: Normal Forms for (Semantically) Witness-Based Learners in Inductive
Inference
- Title(参考訳): インダクティブ推論における(逐次的に)知性に基づく学習者の正規形式
- Authors: Vanja Dosko\v{c} and Timo K\"otzing
- Abstract要約: 本研究では,形式言語を推論する学習者(計算可能なデバイス)について,限定的あるいは帰納的推論において言語学習と呼ばれる設定について検討する。
調査対象の学習者は,それぞれの心の変化を正当化するために,証人に基づく学習を行う。
セット駆動のグローバルなセマンティックな目撃者ベースの学習者は、ゴールドスタイルのセマンティックな保守的な学習者と同じくらい強力であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study learners (computable devices) inferring formal languages, a setting
referred to as language learning in the limit or inductive inference. In
particular, we require the learners we investigate to be witness-based, that
is, to justify each of their mind changes. Besides being a natural requirement
for a learning task, this restriction deserves special attention as it is a
specialization of various important learning paradigms. In particular, with the
help of witness-based learning, explanatory learners are shown to be equally
powerful under these seemingly incomparable paradigms. Nonetheless, until now,
witness-based learners have only been studied sparsely.
In this work, we conduct a thorough study of these learners both when
requiring syntactic and semantic convergence and obtain normal forms thereof.
In the former setting, we extend known results such that they include
witness-based learning and generalize these to hold for a variety of learners.
Transitioning to behaviourally correct learning, we also provide normal forms
for semantically witness-based learners. Most notably, we show that set-driven
globally semantically witness-based learners are equally powerful as their
Gold-style semantically conservative counterpart. Such results are key to
understanding the, yet undiscovered, mutual relation between various important
learning paradigms when learning behaviourally correctly.
- Abstract(参考訳): 本研究では,形式言語を推論する学習者(計算可能なデバイス)について,限定的あるいは帰納的推論において言語学習と呼ばれる設定について検討する。
特に、調査対象の学習者は、証人に基づく、つまり、それぞれの心の変化を正当化する必要がある。
学習課題の自然な要件であるだけでなく、この制限は様々な重要な学習パラダイムの専門化であり、特別な注意に値する。
特に、証人に基づく学習の助けを借りて、説明的学習者は、これらの相容れないパラダイムの下で等しく強力であることが示されている。
しかし、これまでは証人ベースの学習者は少なからぬ研究しか行われていなかった。
本研究では,構文的および意味的収束を必要とする場合と,その正規形を求める場合の両方において,これらの学習者の徹底的な研究を行う。
前者では、証人ベースの学習を含む既知の結果を拡張し、これらを一般化して様々な学習者を保持する。
行動学的に正しい学習へと移行し、意味的目撃者に基づく学習者には通常の形式を提供する。
とくに、セット駆動のグローバルなセマンティックな目撃者ベースの学習者は、ゴールドスタイルのセマンティックな保守的な学習者と同じくらい強力であることを示す。
このような結果は、振る舞いを正しく学習する際の重要な学習パラダイム間の相互関係を理解する上で重要である。
関連論文リスト
- A Definition of Continual Reinforcement Learning [69.56273766737527]
強化学習問題の標準的な見方では、エージェントの目標は、長期的な報酬を最大化するポリシーを効率的に識別することである。
継続的強化学習とは、最高のエージェントが決して学習をやめない状態を指す。
エージェントの分析とカタログ化のための新しい数学的言語を通じて「学習をやめることはない」エージェントの概念を定式化する。
論文 参考訳(メタデータ) (2023-07-20T17:28:01Z) - Diversifying Joint Vision-Language Tokenization Learning [51.82353485389527]
画像とテキスト間で共同表現を構築することは、ビジュアル質問回答やビデオ質問回答といったタスクにとって重要なステップである。
トークン化学習プロセスの多様化による共同視覚言語表現学習を提案する。
論文 参考訳(メタデータ) (2023-06-06T05:41:42Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Self-Evolution Learning for Discriminative Language Model Pretraining [103.57103957631067]
自己進化学習(Self-Evolution Learning、SE)は、単純で効果的なトークンマスキングと学習方法である。
SEは情報的だが未探索のトークンを学習することに集中し、新しいToken固有のラベル平滑化アプローチを導入してトレーニングを適応的に調整する。
論文 参考訳(メタデータ) (2023-05-24T16:00:54Z) - ChatGPT and Simple Linguistic Inferences: Blind Spots and Blinds [51.220650412095665]
本稿では,人間にとって容易な単純な推論タスクに焦点をあてる。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
以上の結果から,モデルがこのような推論に苦慮し,中程度の精度で精度が低いことが示唆された。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Investigating Forgetting in Pre-Trained Representations Through
Continual Learning [51.30807066570425]
事前学習した言語モデルの汎用性に及ぼす表現忘れの影響について検討する。
様々な事前学習されたLMで一般化が破壊され,構文的・意味的知識は連続学習によって忘れられることがわかった。
論文 参考訳(メタデータ) (2023-05-10T08:27:59Z) - A Linguistic Investigation of Machine Learning based Contradiction
Detection Models: An Empirical Analysis and Future Perspectives [0.34998703934432673]
本稿では,2つの自然言語推論データセットについて,その言語的特徴について分析する。
目標は、特に機械学習モデルを理解するのが難しい、構文的および意味的特性を特定することである。
論文 参考訳(メタデータ) (2022-10-19T10:06:03Z) - Pedagogical Demonstrations and Pragmatic Learning in Artificial
Tutor-Learner Interactions [8.715518445626826]
本稿では,複数の目標を持つ環境において,両方の参加者が人工エージェントであるチューター・ラーナー・セットアップにおけるそのようなメカニズムの実装について検討する。
教師からの教育と学習者からの実践主義を用いて,実演による標準学習よりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2022-02-28T21:57:50Z) - Do Language Models Learn Position-Role Mappings? [1.4548651568912523]
位置ロールマッピングの知識を示す言語モデル(BERT,RoBERTa,DistilBERT)について検討した。
実験1では、これらのニューラルモデルが、テーマと受け手の役割の区別を実際に認識していることが示される。
実験2では、これらの言語モデルを1つのパラダイムで新しいテーマや受信者のようなトークンで微調整することで、モデルが他のパラダイムにおけるそれらの配置について正しい予測をすることができることを示す。
論文 参考訳(メタデータ) (2022-02-08T02:50:53Z) - Target Languages (vs. Inductive Biases) for Learning to Act and Plan [13.820550902006078]
私は、ニューラルアーキテクチャのバイアスから表現が現れるのではなく、既知のセマンティクスを持つ特定のターゲット言語で学習される、異なる学習アプローチを明確に表現します。
論文と講演の目的は、これらのアイデアを明確化し、対象言語の設計が不可欠である広い文脈に配置し、それらを行動と計画の学習の文脈で説明することである。
論文 参考訳(メタデータ) (2021-09-15T10:24:13Z) - Mapping Monotonic Restrictions in Inductive Inference [0.0]
本研究は, 単調学習者と強い単調学習者との違いと類似点を示す。
特に,説明的単調学習者は強く強いが,強い単調学習に見られるような対関係をほとんど(ほとんど)維持していることを示す。
最も注目すべきは、モノトーン学習者は、強いモノトーン学習とは対照的に、情報が与えられる順序に大きく依存していることである。
論文 参考訳(メタデータ) (2020-10-15T08:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。