論文の概要: ast2vec: Utilizing Recursive Neural Encodings of Python Programs
- arxiv url: http://arxiv.org/abs/2103.11614v1
- Date: Mon, 22 Mar 2021 06:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:08:14.974445
- Title: ast2vec: Utilizing Recursive Neural Encodings of Python Programs
- Title(参考訳): ast2vec: Pythonプログラムの再帰的ニューラルエンコーディングを活用する
- Authors: Benjamin Paa{\ss}en and Jessica McBroom and Bryn Jeffries and Irena
Koprinska and Kalina Yacef
- Abstract要約: 我々はPythonの構文木をベクトルとバックにマッピングするニューラルネットワークであるast2vecを紹介した。
Ast2vecは50万近い初心者プログラマーのプログラムで訓練されている。
- 参考スコア(独自算出の注目度): 3.088385631471295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Educational datamining involves the application of datamining techniques to
student activity. However, in the context of computer programming, many
datamining techniques can not be applied because they expect vector-shaped
input whereas computer programs have the form of syntax trees. In this paper,
we present ast2vec, a neural network that maps Python syntax trees to vectors
and back, thereby facilitating datamining on computer programs as well as the
interpretation of datamining results. Ast2vec has been trained on almost half a
million programs of novice programmers and is designed to be applied across
learning tasks without re-training, meaning that users can apply it without any
need for (additional) deep learning. We demonstrate the generality of ast2vec
in three settings: First, we provide example analyses using ast2vec on a
classroom-sized dataset, involving visualization, student motion analysis,
clustering, and outlier detection, including two novel analyses, namely a
progress-variance-projection and a dynamical systems analysis. Second, we
consider the ability of ast2vec to recover the original syntax tree from its
vector representation on the training data and two further large-scale
programming datasets. Finally, we evaluate the predictive capability of a
simple linear regression on top of ast2vec, obtaining similar results to
techniques that work directly on syntax trees. We hope ast2vec can augment the
educational datamining toolbelt by making analyses of computer programs easier,
richer, and more efficient.
- Abstract(参考訳): 教育データマイニングは、学生活動にデータマイニング技術を適用することを含む。
しかし、コンピュータプログラミングの文脈では、多くのデータマイニング技術はベクトル型入力を期待しているため適用できないが、コンピュータプログラムは構文木の形態を持っている。
本稿では,pythonの構文木をベクトルやバックにマッピングするニューラルネットワークであるast2vecについて述べる。
ast2vecは、初心者プログラマの約50万のプログラムでトレーニングされており、再トレーニングなしで学習タスクに適用されるように設計されている。
まず、教室サイズのデータセット上でast2vecを用いて、可視化、学生の動き分析、クラスタリング、外乱検出を含む例分析を行い、2つの新しい分析、すなわち、進行分散投影と動的システム解析を行う。
第2に,ast2vecがトレーニングデータ上のベクトル表現と,さらに2つの大規模プログラミングデータセットから元の構文木を復元する能力を検討する。
最後に,ast2vec上の単純な線形回帰の予測性能を評価し,構文木に直接作用する手法と同様の結果を得た。
ast2vecは、コンピュータプログラムの分析をより簡単に、よりリッチで、より効率的にすることで、教育用データマイニングツールベルトを強化できることを願っている。
関連論文リスト
- Knowledge Composition using Task Vectors with Learned Anisotropic Scaling [51.4661186662329]
本稿では,パラメータブロックと異なる学習係数を線形に組み合わせ,タスクベクトルレベルでの異方性スケーリングを実現するアルゴリズムであるaTLASを紹介する。
このような線形結合は事前学習されたモデルの低内在性を明示的に利用しており、学習可能なパラメータは数係数のみであることを示す。
本稿では,タスク算術,少数ショット認識,テスト時間適応において,教師なしあるいは教師なしの目的を用いた手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-07-03T07:54:08Z) - Distributive Pre-Training of Generative Modeling Using Matrix-Product
States [0.0]
本稿では,基本的なテンソルネットワーク操作,例えば和と圧縮を利用した代替的なトレーニング手法を検討する。
トレーニングアルゴリズムは、製品状態表現におけるすべてのトレーニングデータから構築された重ね合わせ状態を圧縮する。
MNISTデータセット上でアルゴリズムをベンチマークし、新しい画像と分類タスクを生成するための妥当な結果を示す。
論文 参考訳(メタデータ) (2023-06-26T15:46:08Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - HyperSeed: Unsupervised Learning with Vector Symbolic Architectures [5.258404928739212]
本稿では,Hyperseedという新しい教師なし機械学習手法を提案する。
VSA(Vector Symbolic Architectures)を活用して、問題のないデータのトポロジ保存機能マップを高速に学習する。
ハイパーシードアルゴリズムの2つの特徴的特徴は,1)少数の入力データサンプルから学習すること,2)1つのベクトル演算に基づく学習規則である。
論文 参考訳(メタデータ) (2021-10-15T20:05:43Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Network Support for High-performance Distributed Machine Learning [17.919773898228716]
学習ノード(計算を行う)と情報ノード(データを提供する)の両方をキャプチャするシステムモデルを提案する。
次に,学習課題を完了させるために,学習ノードと情報ノードが協調して行うべき課題と,実行すべきイテレーション数を選択する問題を定式化する。
我々はDoubleClimbというアルゴリズムを考案し、1+1/|I|競合解を見つけることができる。
論文 参考訳(メタデータ) (2021-02-05T19:38:57Z) - Massively Parallel Graph Drawing and Representation Learning [13.736789987448466]
グラフ埋め込み、すなわちグラフの頂点を数値ベクトルに変換することは、重要なデータマイニングタスクである。
低次元および高次元ベクトルを生成する情報理論手法であるMulticoreGEMPEを提案する。
論文 参考訳(メタデータ) (2020-11-06T17:18:14Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z) - ProGraML: Graph-based Deep Learning for Program Optimization and
Analysis [16.520971531754018]
本稿では,機械学習のためのグラフベースのプログラム表現であるProGraMLを紹介する。
ProGraMLは平均94.0F1スコアを獲得し、最先端のアプローチを著しく上回っている。
そして、我々のアプローチを2つのハイレベルなタスク - 不均一なデバイスマッピングとプログラム分類 - に適用し、その両方で新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2020-03-23T20:27:00Z) - Multi-layer Optimizations for End-to-End Data Analytics [71.05611866288196]
代替アプローチを実現するフレームワークであるIFAQ(Iterative Functional Aggregate Queries)を紹介する。
IFAQは、特徴抽出クエリと学習タスクを、IFAQのドメイン固有言語で与えられた1つのプログラムとして扱う。
IFAQ の Scala 実装が mlpack,Scikit,特殊化を数桁で上回り,線形回帰木モデルや回帰木モデルを複数の関係データセット上で処理可能であることを示す。
論文 参考訳(メタデータ) (2020-01-10T16:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。