論文の概要: Evaluating the Wide Area Classroom After 24,000 HPC Students
- arxiv url: http://arxiv.org/abs/2402.03343v1
- Date: Mon, 22 Jan 2024 22:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 15:38:05.065213
- Title: Evaluating the Wide Area Classroom After 24,000 HPC Students
- Title(参考訳): HPC学生24,000名における広域授業の評価
- Authors: John Urbanic, Thomas Maiden, and Valerie Rossi
- Abstract要約: ワイド・エリア・クラスルームを用いて,106回のイベントを通じて24,000人以上の学生を指導した。
本稿では,これらのイベントの技術的・論理的構造と,最も普及していると証明された特定のHPCカリキュラムについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As of 2023 we have taught more than 24,000 students over the course of 106
events using the Wide Area Classroom, a novel distributed teaching platform.
This has been a successful effort gauged by several important metrics. We
describe both the technical and logistical structure of these events as well as
the specific HPC curriculums which have proven to be most popular.
- Abstract(参考訳): 2023年現在、我々は、新しい分散教育プラットフォームであるワイド・エリア・クラスルームを使って、106のイベントで24,000人以上の学生に教えている。
これはいくつかの重要な指標によって測定された成功の成果である。
本稿では,これらのイベントの技術的・論理的構造と,最も普及していると証明された特定のHPCカリキュラムについて述べる。
関連論文リスト
- Data Engineering for Scaling Language Models to 128K Context [98.41554785106902]
本研究では,言語モデルの文脈長を128Kまで拡張するための継続事前学習法について検討する。
既存の作業の一般的な実践である書籍のような特定のドメインで、より長いデータを鼻でサンプリングすることで、パフォーマンスが最適以下であることが分かりました。
我々のレシピは強力なオープンソース長文モデルより優れており、GPT-4 128Kのようなフロンティアモデルとのギャップを埋めている。
論文 参考訳(メタデータ) (2024-02-15T18:19:16Z) - Technical Report of 2023 ABO Fine-grained Semantic Segmentation
Competition [0.3626013617212667]
チーム「Zeyu_Dong」による2023年ABOファイングラニュアルセマンティックコンペティションへの提出の技術的詳細について述べる。
課題は、オンラインで購入できる実際の製品の高品質で標準化された3Dモデルで構成される5つのカテゴリの凸勾配のセマンティックラベルを予測することである。
適切な方法は、2023年のICCV 3DVeComm Workshop ChallengeのDevフェーズで3位にランク付けするのに役立ちます。
論文 参考訳(メタデータ) (2023-09-30T16:32:22Z) - Low-complexity deep learning frameworks for acoustic scene
classification using teacher-student scheme and multiple spectrograms [59.86658316440461]
提案システムは,教師のネットワークを訓練する(Phase I)と,教師の知識を蒸留して学生のネットワークを訓練する(Phase II)の2つの段階から構成される。
DCASE 2023 Task 1 Developmentデータセットで実施した実験は,低複雑さの要求を満たすとともに,57.4%の最高の分類精度を達成した。
論文 参考訳(メタデータ) (2023-05-16T14:21:45Z) - Teaching Blockchain in K9-12: Instruction materials and their assessment [0.0]
本稿では,新興ITトピックを中等教育(K9-12)に組み込む可能性について分析する。
そこで我々は,K9-12の学生を対象に,関連コンテンツを提供するクラスを開発した。
論文 参考訳(メタデータ) (2022-11-08T11:04:25Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z) - Large-scale, Language-agnostic Discourse Classification of Tweets During
COVID-19 [0.0]
機械学習を用いた大規模Twitter談話分類を行うために,言語に依存しないつぶやき表現を提案する。
新型コロナウイルス(COVID-19)のツイート2600万件を分析したところ、公衆の会話を大規模に監視することは可能だった。
論文 参考訳(メタデータ) (2020-08-02T11:12:56Z) - A Large-Scale, Open-Domain, Mixed-Interface Dialogue-Based ITS for STEM [84.60813413413402]
Korbitは、大規模な、オープンドメイン、複合インターフェース、対話ベースのインテリジェントチューリングシステム(ITS)である。
機械学習、自然言語処理、強化学習を利用して、インタラクティブでパーソナライズされた学習をオンラインで提供する。
他のITSとは異なり、教師はKorbitの新しい学習モジュールを数時間で開発することができる。
論文 参考訳(メタデータ) (2020-05-06T02:45:43Z) - The EPIC-KITCHENS Dataset: Collection, Challenges and Baselines [88.47608066382267]
この大規模なデータセットが、32人の参加者によって、彼らのネイティブキッチン環境でどのようにキャプチャされたか、詳しく説明します。
録音は10カ国から4カ国で行われた。
私たちのデータセットは、11.5万フレームからなる55時間のビデオで構成されており、合計39.6Kアクションセグメントと454.2Kオブジェクトバウンディングボックスを密にラベル付けしています。
論文 参考訳(メタデータ) (2020-04-29T21:57:04Z) - MOT20: A benchmark for multi object tracking in crowded scenes [73.92443841487503]
我々は,非常に混み合ったシーンを描写した8つの新しいシーケンスからなるMOT20ベンチマークを提示する。
ベンチマークは第4回BMTT MOT Challenge Workshop at the Computer Vision and Pattern Recognition Conference (CVPR)で初めて発表された。
論文 参考訳(メタデータ) (2020-03-19T20:08:24Z) - Overview of the TREC 2019 deep learning track [36.23357487158591]
Deep Learning TrackはTREC 2019の新しいトラックで、大規模データ体制におけるアドホックランキングの研究を目的としている。
大規模な人間ラベルのトレーニングセットを備えた最初のトラックであり、2つのタスクに対応する2つのセットを導入している。
今年、15のグループは、ディープラーニング、トランスファーラーニング、伝統的なIRランキング手法の様々な組み合わせを使用して、合計75のランを提出した。
論文 参考訳(メタデータ) (2020-03-17T17:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。