論文の概要: Proceedings Eighth and Ninth International Workshop on Trends in
Functional Programming in Education
- arxiv url: http://arxiv.org/abs/2008.08923v1
- Date: Thu, 20 Aug 2020 12:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 12:26:11.728382
- Title: Proceedings Eighth and Ninth International Workshop on Trends in
Functional Programming in Education
- Title(参考訳): 第8回および第9回国際ワークショップ : 教育における関数型プログラミングの動向
- Authors: Jurriaan Hage (Utrecht University)
- Abstract要約: この巻には、IE 2019とIE 2020に提出されたプレゼンテーションに基づいて、レビュー後受理された5つの論文が含まれている。
著者は、関数型プログラミングをあらゆるレベルで教える研究と経験を提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This volume contains five papers, accepted after post-reviewing, based on
presentations submitted to TFPIE 2019 and TFPIE 2020 that took places in
Vancouver, Canada and Krakow, Poland respectively. TFPIE stands for Trends in
Functional Programming in Education, where authors present research and
experiences in teaching concepts of functional programming at any level.
- Abstract(参考訳): この巻には、バンクーバーとポーランドのクラクフでそれぞれ開催されているTFPIE 2019とTFPIE 2020に提出されたプレゼンテーションに基づいて、ポストリビュー後に受理された5つの論文が含まれている。
TFPIEは、関数型プログラミングにおけるトレンド(Trend in Functional Programming in Education)の略であり、著者は関数型プログラミングの概念をあらゆるレベルで教える研究と経験を提示する。
関連論文リスト
- Performance of Large Language Models in a Computer Science Degree
Program [0.5330240017302619]
本稿では,応用科学大学大学院コンピュータサイエンス学位課程における大規模言語モデルの性能について述べる。
講義資料,運動課題,過去の試験をモデルに促すことで,各分野のコンピュータサイエンス分野にまたがってその習熟度を評価することを目指す。
We found that ChatGPT-3.5 averageed 79.9% of the total score in 10 test module, BingAI achieved 68.4%, and LLaMa, in the 6600 billion parameter variant, 20%。
論文 参考訳(メタデータ) (2023-07-24T14:17:00Z) - Summary of ChatGPT-Related Research and Perspective Towards the Future
of Large Language Models [40.557611946967086]
本稿では、ChatGPT関連研究(GPT-3.5およびGPT-4)、GPTシリーズの最先端の大規模言語モデル(LLM)、および様々な領域にわたる将来の応用について調査する。
各種アプリケーション領域におけるトレンド分析,ワードクラウド表現,および分布解析を含む,arXivに関する194の関連論文の詳細な分析を行った。
論文 参考訳(メタデータ) (2023-04-04T15:01:06Z) - Proceedings of the 2nd Workshop on Logic and Practice of Programming
(LPOP) [0.2578242050187029]
ワークショップは2010年11月15日にアメリカ合衆国シカゴの代わりにオンラインで開催された。
このワークショップの目的は、論理を実用的なツールとして利用するコンピュータ科学のさまざまな領域を橋渡しすることである。
論文 参考訳(メタデータ) (2022-11-17T22:50:56Z) - Reasoning Like Program Executors [48.819113224699976]
POETは言語モデルにデータ駆動アプローチを通じてプログラム実行者にある推論知識を抽出する権限を与える。
PoETは自然言語推論におけるモデルパフォーマンスを大幅に向上させることができる。
PoETは推論の事前トレーニングに新たなゲートを開く。
論文 参考訳(メタデータ) (2022-01-27T12:28:24Z) - Natural Language Processing in-and-for Design Research [2.7071541526963805]
設計プロセスを支援するために自然言語処理(NLP)手法を利用した学術的貢献についてレビューする。
我々は,これらの論文を自然言語テキストソースの種類に応じてレビューすることで,最先端のNLPイン・アンド・フォー・デザイン研究を提案する。
論文 参考訳(メタデータ) (2021-11-27T06:32:54Z) - FedNLP: A Research Platform for Federated Learning in Natural Language
Processing [55.01246123092445]
NLPのフェデレーションラーニングのための研究プラットフォームであるFedNLPを紹介します。
FedNLPは、テキスト分類、シーケンスタグ付け、質問応答、Seq2seq生成、言語モデリングなど、NLPで一般的なタスクの定式化をサポートしている。
FedNLPによる予備実験では、分散型データセットと集中型データセットの学習には大きなパフォーマンスギャップが存在することが明らかになった。
論文 参考訳(メタデータ) (2021-04-18T11:04:49Z) - NEMO: Frequentist Inference Approach to Constrained Linguistic Typology
Feature Prediction in SIGTYP 2020 Shared Task [83.43738174234053]
タイプ的特徴間の相関関係を表現するために頻繁な推論を用い、この表現を用いて、個々の特徴を予測する単純なマルチクラス推定器を訓練する。
テスト言語149言語に対して,マイクロ平均精度0.66を達成できた。
論文 参考訳(メタデータ) (2020-10-12T19:25:43Z) - Towards Induction of Structured Phoneme Inventories [75.47306670351598]
SIGTYP 2020: The Second Workshop on Computational Research in Linguistic Typology がEMNLP 2020で開催される。
論文 参考訳(メタデータ) (2020-10-12T18:39:07Z) - Pre-trained Models for Natural Language Processing: A Survey [75.95500552357429]
事前学習モデル(PTM)の出現は、自然言語処理(NLP)を新しい時代にもたらした。
この調査は、様々なNLPタスクに対するPTMの理解、利用、開発のためのハンズオンガイドになることを目的としている。
論文 参考訳(メタデータ) (2020-03-18T15:22:51Z) - Recognizing Families In the Wild: White Paper for the 4th Edition Data
Challenge [91.55319616114943]
本稿では,Recognizing Families In the Wild(RFIW)評価における支援課題(親族検証,三対象検証,行方不明児の検索・検索)を要約する。
本研究の目的は、2020年のRFIWチャレンジと、将来的な方向性の予測について述べることである。
論文 参考訳(メタデータ) (2020-02-15T02:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。