論文の概要: Computational linguistic assessment of textbook and online learning
media by means of threshold concepts in business education
- arxiv url: http://arxiv.org/abs/2008.02096v1
- Date: Wed, 5 Aug 2020 12:56:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:12:05.290185
- Title: Computational linguistic assessment of textbook and online learning
media by means of threshold concepts in business education
- Title(参考訳): ビジネス教育におけるしきい値概念を用いた教科書とオンライン学習メディアの計算言語学的評価
- Authors: Andy L\"ucking and Sebastian Br\"uckner and Giuseppe Abrami and Tolga
Uslu and Alexander Mehler
- Abstract要約: 言語学的観点では、しきい値の概念は特別な語彙の例であり、特定の言語的特徴を示す。
ビジネス教育における63のしきい値の概念のプロファイルは、教科書、新聞、ウィキペディアで調査されている。
3種類のリソースは、しきい値の概念のプロファイルから区別できる。
- 参考スコア(独自算出の注目度): 59.003956312175795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Threshold concepts are key terms in domain-based knowledge acquisition. They
are regarded as building blocks of the conceptual development of domain
knowledge within particular learners. From a linguistic perspective, however,
threshold concepts are instances of specialized vocabularies, exhibiting
particular linguistic features. Threshold concepts are typically used in
specialized texts such as textbooks -- that is, within a formal learning
environment. However, they also occur in informal learning environments like
newspapers. In this article, a first approach is taken to combine both lines
into an overarching research program - that is, to provide a computational
linguistic assessment of different resources, including in particular online
resources, by means of threshold concepts. To this end, the distributive
profiles of 63 threshold concepts from business education (which have been
collected from threshold concept research) has been investigated in three kinds
of (German) resources, namely textbooks, newspapers, and Wikipedia. Wikipedia
is (one of) the largest and most widely used online resources. We looked at the
threshold concepts' frequency distribution, their compound distribution, and
their network structure within the three kind of resources. The two main
findings can be summarized as follows: Firstly, the three kinds of resources
can indeed be distinguished in terms of their threshold concepts' profiles.
Secondly, Wikipedia definitely appears to be a formal learning resource.
- Abstract(参考訳): 閾値の概念はドメインベースの知識獲得において重要な用語である。
これらは、特定の学習者におけるドメイン知識の概念的発展の構成要素と考えられている。
しかし、言語学的観点では、しきい値の概念は特別な語彙の例であり、特定の言語的特徴を示す。
しきい値の概念は、通常、教科書のような特殊なテキスト、つまり正式な学習環境内で使用される。
しかし、新聞などの非公式な学習環境でも発生する。
本稿では,両行を総合的な研究プログラムに結合する第1のアプローチについて述べる。すなわち,しきい値の概念を用いて,特にオンライン資源を含む様々な資源の計算言語学的評価を行う。
この目的のために、ビジネス教育(しきい値概念研究から収集した)からの63のしきい値概念の分散プロファイルが、教科書、新聞、ウィキペディアの3種類の(ドイツの)リソースで研究されている。
Wikipediaは、最大かつ最も広く使われているオンラインリソースの一つだ。
本研究では,しきい値概念の周波数分布,それらの複合分布,およびそれらのネットワーク構造について検討した。
第一に、3種類のリソースは、しきい値の概念のプロファイルの観点から、実際に区別することができる。
第二に、wikipediaは間違いなく正式な学習リソースだ。
関連論文リスト
- Domain Embeddings for Generating Complex Descriptions of Concepts in
Italian Language [65.268245109828]
電子辞書から抽出した言語情報と語彙情報に富んだ分布意味資源を提案する。
リソースは21のドメイン固有の行列と1つの包括的なマトリックスとグラフィカルユーザインタフェースから構成される。
本モデルは,具体的概念知識に直接関連した行列を選択することにより,概念の意味的記述の推論を容易にする。
論文 参考訳(メタデータ) (2024-02-26T15:04:35Z) - Towards Open Vocabulary Learning: A Survey [146.90188069113213]
ディープニューラルネットワークは,セグメンテーションやトラッキング,検出といった,さまざまなコアタスクにおいて,目覚ましい進歩を遂げている。
近年、視覚言語事前学習の急速な進歩により、オープンな語彙設定が提案されている。
本稿では,その分野における最近の発展を要約し分析し,オープンな語彙学習の徹底的なレビューを行う。
論文 参考訳(メタデータ) (2023-06-28T02:33:06Z) - Efficient Induction of Language Models Via Probabilistic Concept
Formation [13.632454840363916]
コーパスから言語モデルを取得するための新しいアプローチを提案する。
このフレームワークは、確率論的概念の分類学的階層を構築するための初期のシステムであるCobweb上に構築されている。
Cobwebの3つの新しい拡張(Word、Leaf、Pathの亜種)について調べる。
論文 参考訳(メタデータ) (2022-12-22T18:16:58Z) - Joint Language Semantic and Structure Embedding for Knowledge Graph
Completion [66.15933600765835]
本稿では,知識三重項の自然言語記述と構造情報とを共同で組み込むことを提案する。
本手法は,学習済み言語モデルを微調整することで,完了作業のための知識グラフを埋め込む。
各種知識グラフベンチマーク実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2022-09-19T02:41:02Z) - O-Dang! The Ontology of Dangerous Speech Messages [53.15616413153125]
O-Dang!:The Ontology of Dangerous Speech Messages, a systematic and interoperable Knowledge Graph (KG)
O-Dang!は、Lingguistic Linked Open Dataコミュニティで共有されている原則に従って、イタリアのデータセットを構造化されたKGにまとめ、整理するように設計されている。
ゴールド・スタンダードとシングル・アノテータのラベルをKGにエンコードするモデルを提供する。
論文 参考訳(メタデータ) (2022-07-13T11:50:05Z) - Expedition: A System for the Unsupervised Learning of a Hierarchy of
Concepts [0.522145960878624]
本稿では,意味のある文字列に対応する無数の概念のボトムアップ累積学習システムを提案する。
学習は、発見される概念が予測対象だけでなく予測対象として使用されるという点で自己監督される。
ベースライン予測システムとの比較から,学習概念とセグメンテーションする目的を考案する。
論文 参考訳(メタデータ) (2021-12-17T06:49:18Z) - Employing distributional semantics to organize task-focused vocabulary
learning [2.1320960069210475]
計算言語学的手法とグラフベースの学習者モデルを組み合わせることで、この問題に答える方法について検討する。
学習者は,高度に構造化された学習者モデルとネットワーク解析の概念に基づいて,対象の語彙空間を効率的に探索する。
論文 参考訳(メタデータ) (2020-11-22T21:51:19Z) - Inferential Text Generation with Multiple Knowledge Sources and
Meta-Learning [117.23425857240679]
本研究では,テキストティフ・エルス関係のような多種多様なコモンセンスのイベントの推論テキストを生成する問題について検討する。
既存のアプローチでは、トレーニング例からの限られた証拠を使用して、個々の関係について学習するのが一般的である。
この研究では、モデルのための燃料として複数の知識ソースを使用します。
論文 参考訳(メタデータ) (2020-04-07T01:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。