論文の概要: Conditional Teaching Size
- arxiv url: http://arxiv.org/abs/2107.07038v1
- Date: Tue, 29 Jun 2021 23:08:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-18 12:21:38.689610
- Title: Conditional Teaching Size
- Title(参考訳): 条件付き教示サイズ
- Authors: Manuel Garcia-Piqueras and Jos\'e Hern\'andez-Orallo
- Abstract要約: 本稿では,その証明や今後の研究の方向性など,一連の理論的結果を示す。
構成シナリオにおけるカリキュラム教育の新たな研究の可能性は、現在、探索に広く開放されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent research in machine teaching has explored the instruction of any
concept expressed in a universal language. In this compositional context, new
experimental results have shown that there exist data teaching sets
surprisingly shorter than the concept description itself. However, there exists
a bound for those remarkable experimental findings through teaching size and
concept complexity that we further explore here. As concepts are rarely taught
in isolation we investigate the best configuration of concepts to teach a given
set of concepts, where those that have been acquired first can be reused for
the description of new ones. This new notion of conditional teaching size
uncovers new insights, such as the interposition phenomenon: certain prior
knowledge generates simpler compatible concepts that increase the teaching size
of the concept that we want to teach. This does not happen for conditional
Kolmogorov complexity. Furthermore, we provide an algorithm that constructs
optimal curricula based on interposition avoidance. This paper presents a
series of theoretical results, including their proofs, and some directions for
future work. New research possibilities in curriculum teaching in compositional
scenarios are now wide open to exploration.
- Abstract(参考訳): 機械教育における最近の研究は、普遍言語で表現されるあらゆる概念の指導を探求している。
この構成的文脈において、新しい実験結果により、概念記述自体よりも驚くほど短いデータ教示集合が存在することが示されている。
しかし、これらの顕著な実験的な発見には、ここでさらに探求する大きさと概念の複雑さを教えることによる限界がある。
概念を個別に教えることはめったにないので、与えられた概念の集合を教えるために、概念の最良の構成を調べ、そこで最初に獲得した概念は、新しい概念の記述のために再利用することができる。
特定の事前知識は、私たちが教えたい概念の教示サイズを増加させるより単純な互換性のある概念を生み出します。
これは条件付きコルモゴロフ複雑性では起こらない。
さらに,相互配置回避に基づく最適なカリキュラムを構築するアルゴリズムを提案する。
本稿では,その証明や今後の研究の方向性など,一連の理論的結果を示す。
作曲シナリオにおけるカリキュラム教育の新たな研究可能性は現在、探究に広く開放されている。
関連論文リスト
- Explaining Explainability: Understanding Concept Activation Vectors [35.37586279472797]
最近の解釈可能性法では、概念に基づく説明を用いて、ディープラーニングモデルの内部表現を、人間が慣れ親しんだ言語に翻訳する。
これは、ニューラルネットワークの表現空間にどの概念が存在するかを理解する必要がある。
本研究では,概念活性化ベクトル(Concept Activation Vectors, CAV)の3つの特性について検討する。
本研究では,これらの特性の存在を検出するためのツールを導入し,それらが引き起こした説明にどのように影響するかを把握し,その影響を最小限に抑えるための推奨事項を提供する。
論文 参考訳(メタデータ) (2024-04-04T17:46:20Z) - Fundamental Components of Deep Learning: A category-theoretic approach [0.0]
この論文は、カテゴリ理論の言語に基づく、ディープラーニングのための新しい数学的基礎を発展させている。
我々はまた、既存の多くのアプローチを体系化し、多くの既存の構成と概念を同じ傘の下に置きます。
論文 参考訳(メタデータ) (2024-03-13T01:29:40Z) - Exploring and Verbalizing Academic Ideas by Concept Co-occurrence [42.16213986603552]
本研究は,学術的アイデアインスピレーションのための概念共起に基づく枠組みを考案する。
我々は20の分野やトピックから概念の共起関係に基づき、進化する概念グラフを構築する。
我々は、共起励磁法と呼ばれる新しいデータ構造に基づくアイデアの記述を生成する。
論文 参考訳(メタデータ) (2023-06-04T07:01:30Z) - Concept Decomposition for Visual Exploration and Inspiration [53.06983340652571]
本稿では,視覚概念を階層木構造に符号化した異なる視覚的側面に分解する手法を提案する。
我々は、概念分解と生成のために、大きな視覚言語モデルとそのリッチな潜在空間を利用する。
論文 参考訳(メタデータ) (2023-05-29T16:56:56Z) - Expedition: A System for the Unsupervised Learning of a Hierarchy of
Concepts [0.522145960878624]
本稿では,意味のある文字列に対応する無数の概念のボトムアップ累積学習システムを提案する。
学習は、発見される概念が予測対象だけでなく予測対象として使用されるという点で自己監督される。
ベースライン予測システムとの比較から,学習概念とセグメンテーションする目的を考案する。
論文 参考訳(メタデータ) (2021-12-17T06:49:18Z) - Separating Skills and Concepts for Novel Visual Question Answering [66.46070380927372]
アウト・オブ・ディストリビューションデータへの一般化は、VQA(Visual Question Answering)モデルにおいて問題となっている。
「スキル」とは、数え方や属性認識などの視覚的なタスクであり、その疑問に言及された「概念」に適用される。
モデル内でこれらの2つの要因を暗黙的に分離するスキルと概念を学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T18:55:10Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。