論文の概要: Towards Making Flowchart Images Machine Interpretable
- arxiv url: http://arxiv.org/abs/2501.17441v1
- Date: Wed, 29 Jan 2025 06:43:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:55:16.417223
- Title: Towards Making Flowchart Images Machine Interpretable
- Title(参考訳): フローチャート画像機械の解釈に向けて
- Authors: Shreya Shukla, Prajwal Gatti, Yogesh Kumar, Vikash Yadav, Anand Mishra,
- Abstract要約: 本稿では,FloCo-T5というトランスフォーマーベースの新しいフレームワークを提案する。
私たちのモデルは、プログラミング言語のセマンティクス、構造、パターンを効果的に学習できるので、このタスクに適しています。
我々は11,884のフローチャートイメージと対応するPythonコードを含むTheFloCoデータセットを紹介した。
- 参考スコア(独自算出の注目度): 2.973966315553307
- License:
- Abstract: Computer programming textbooks and software documentations often contain flowcharts to illustrate the flow of an algorithm or procedure. Modern OCR engines often tag these flowcharts as graphics and ignore them in further processing. In this paper, we work towards making flowchart images machine-interpretable by converting them to executable Python codes. To this end, inspired by the recent success in natural language to code generation literature, we present a novel transformer-based framework, namely FloCo-T5. Our model is well-suited for this task,as it can effectively learn semantics, structure, and patterns of programming languages, which it leverages to generate syntactically correct code. We also used a task-specific pre-training objective to pre-train FloCo-T5 using a large number of logic-preserving augmented code samples. Further, to perform a rigorous study of this problem, we introduce theFloCo dataset that contains 11,884 flowchart images and their corresponding Python codes. Our experiments show promising results, and FloCo-T5 clearly outperforms related competitive baselines on code generation metrics. We make our dataset and implementation publicly available.
- Abstract(参考訳): コンピュータプログラミングの教科書やソフトウェア文書には、しばしばアルゴリズムや手順の流れを説明するフローチャートが含まれている。
現代のOCRエンジンは、これらのフローチャートをグラフィックとしてタグ付けし、さらなる処理で無視することが多い。
本稿では,実行可能Pythonコードに変換することで,フローチャート画像の機械的解釈を実現する。
この目的のために、自然言語からコード生成文学への最近の成功に触発され、新しいトランスフォーマーベースのフレームワークであるFloCo-T5を提案する。
私たちのモデルは、構文的に正しいコードを生成するために、プログラミング言語のセマンティクス、構造、パターンを効果的に学習できるので、このタスクに適しています。
また,FloCo-T5の事前学習には,多数の論理保存型コードサンプルを用いてタスク固有の事前学習を行った。
さらに,この問題を厳密に研究するために,11,884個のフローチャート画像とその対応するPythonコードを含むFloCoデータセットを導入する。
我々の実験は有望な結果を示し、FloCo-T5はコード生成メトリクスに関する競合ベースラインよりも明らかに優れています。
データセットと実装を公開しています。
関連論文リスト
- ChartCoder: Advancing Multimodal Large Language Model for Chart-to-Code Generation [90.82566869965011]
textbfChartCoderは、最初の専用チャートからコードへのMLLMである。
textbfChart2Code-160kは、チャート・ツー・コード生成のための、最初の大規模かつ多様なデータセットである。
実験によると、ChartCoderは7Bパラメータしか持たないが、チャート・トゥ・コードベンチマークで既存のオープンソースのMLLMを超えている。
論文 参考訳(メタデータ) (2025-01-11T17:52:22Z) - FlowLearn: Evaluating Large Vision-Language Models on Flowchart Understanding [52.35520385083425]
FlowLearnデータセットは、フローチャートの理解を強化するために設計されたリソースである。
科学的サブセットは、科学文献から得られた3,858のフローチャートを含んでいる。
シミュレーションされたサブセットには、カスタマイズ可能なスクリプトを使用して作成された10,000のフローチャートが含まれている。
論文 参考訳(メタデータ) (2024-07-06T20:58:51Z) - Exploring Continual Learning for Code Generation Models [80.78036093054855]
継続的学習(CL)は、コードドメインの中でまだ過小評価されていない重要な側面である。
コード生成,翻訳,要約,改良など,幅広いタスクをカバーするCodeTask-CLというベンチマークを導入する。
即時選択機構の不安定な訓練により,プロンプトプール (PP) などの有効手法が破滅的な忘れ込みに悩まされることが判明した。
論文 参考訳(メタデータ) (2023-07-05T16:58:39Z) - T5Score: Discriminative Fine-tuning of Generative Evaluation Metrics [94.69907794006826]
我々は、現在利用可能なデータから、教師なし信号と教師なし信号の両方を用いて、両方の世界のベストを結合するフレームワークを提案する。
このアイデアを,mT5をバックボーンとするトレーニング信号を使用するメトリックであるT5Scoreをトレーニングすることで,運用する。
T5Scoreは、セグメントレベルの既存のトップスコアメトリクスに対して、すべてのデータセットで最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-12T06:29:04Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z) - GAP-Gen: Guided Automatic Python Code Generation [3.574838772430975]
本稿では,Pythonの構文的制約と意味的制約に基づくガイド付き自動Pythonコード生成手法を提案する。
GAP-Genは、Code-to-Docstringデータセットを使用して、トランスフォーマーベースの言語モデルT5とCodeT5を微調整する。
実験の結果,GAP-GenはPythonの自動コード生成タスクにおいて,従来の作業よりも優れた結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-01-19T06:32:47Z) - Universal Representation for Code [8.978516631649276]
新しいグラフベースのコード表現の上に効果的なプリトレーニング戦略を提示する。
我々は、グラフニューラルネットワークの表現を事前学習し、普遍的なコード特性を抽出する。
実世界の2つのデータセット - 30億のjavaメソッドと770万のpythonメソッドにまたがる。
論文 参考訳(メタデータ) (2021-03-04T15:39:25Z) - GraphCodeBERT: Pre-training Code Representations with Data Flow [97.00641522327699]
本稿では,コード固有の構造を考慮したプログラミング言語の事前学習モデルであるGraphCodeBERTを提案する。
これは変数間の"where-the-value-comes-from"の関係をエンコードするコードのセマンティックレベルの構造です。
コード検索,クローン検出,コード翻訳,コード改良の4つのタスクにおいて,本モデルを評価する。
論文 参考訳(メタデータ) (2020-09-17T15:25:56Z) - TF-Coder: Program Synthesis for Tensor Manipulations [29.46838583290554]
本稿では,プルーニングを例に,TF-Coderというプログラミングツールを提案する。
入力と出力のテンソルの特徴とタスクの自然言語記述から操作を予測するためにモデルを訓練する。
TF-Coderは、実世界のタスクのうち63を5分以内に解決する。
論文 参考訳(メタデータ) (2020-03-19T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。