論文の概要: Towards A Visual Programming Tool to Create Deep Learning Models
- arxiv url: http://arxiv.org/abs/2303.12821v1
- Date: Wed, 22 Mar 2023 16:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 16:56:25.452638
- Title: Towards A Visual Programming Tool to Create Deep Learning Models
- Title(参考訳): ディープラーニングモデル作成のためのビジュアルプログラミングツールの開発
- Authors: Tommaso Cal\`o and Luigi De Russis
- Abstract要約: DeepBlocksは、Deep Learning開発者が特定のプログラミング言語に頼ることなく、モデルを設計、トレーニング、評価できるビジュアルプログラミングツールである。
我々は5人の参加者による形式的なインタビューから設計目標を導出し、典型的なユースケースを通じてツールの最初の実装を検証した。
- 参考スコア(独自算出の注目度): 15.838427479984926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) developers come from different backgrounds, e.g.,
medicine, genomics, finance, and computer science. To create a DL model, they
must learn and use high-level programming languages (e.g., Python), thus
needing to handle related setups and solve programming errors. This paper
presents DeepBlocks, a visual programming tool that allows DL developers to
design, train, and evaluate models without relying on specific programming
languages. DeepBlocks works by building on the typical model structure: a
sequence of learnable functions whose arrangement defines the specific
characteristics of the model. We derived DeepBlocks' design goals from a
5-participants formative interview, and we validated the first implementation
of the tool through a typical use case. Results are promising and show that
developers could visually design complex DL architectures.
- Abstract(参考訳): ディープラーニング(DL)開発者は、医学、ゲノム学、ファイナンス、コンピュータサイエンスなど、さまざまなバックグラウンドから来ている。
dlモデルを作成するには、ハイレベルなプログラミング言語(例えばpython)を学ばなければならないため、関連するセットアップを処理し、プログラムエラーを解決する必要がある。
本稿では、DL開発者が特定のプログラミング言語に頼ることなく、モデルの設計、訓練、評価ができるビジュアルプログラミングツールであるDeepBlocksについて述べる。
deepblocksは典型的なモデル構造の上に構築することで機能する: モデルの特定の特性を定義する配列を持つ学習可能な関数のシーケンス。
我々は,deepblocksの設計目標を5つの参加者によるフォーマティブ・インタビューから導出し,そのツールの最初の実装を典型的なユースケースで検証した。
結果は有望であり、複雑なDLアーキテクチャを視覚的に設計できることを示しています。
関連論文リスト
- DeepCodeProbe: Towards Understanding What Models Trained on Code Learn [13.135962181354465]
本稿では,MLモデルの構文と表現学習能力を調べるための探索手法であるDeepCodeProbeを紹介する。
コードクローン検出,コード要約,コメント生成の最先端モデルにDeepCodeProbeを適用した。
発見によると、小さなモデルは抽象構文表現をキャプチャするが、プログラミング言語の構文を完全に把握する能力は限られている。
論文 参考訳(メタデータ) (2024-07-11T23:16:44Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - CMULAB: An Open-Source Framework for Training and Deployment of Natural Language Processing Models [59.91221728187576]
本稿では,NLPモデルのモデル展開と連続的なヒューマン・イン・ザ・ループの微調整を簡単にするオープンソースフレームワークであるCMU言語バックエンドを紹介する。
CMULABは、マルチ言語モデルのパワーを活用して、音声認識、OCR、翻訳、構文解析などの既存のツールを新しい言語に迅速に適応し、拡張することができる。
論文 参考訳(メタデータ) (2024-04-03T02:21:46Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z) - Instruct2Act: Mapping Multi-modality Instructions to Robotic Actions
with Large Language Model [63.66204449776262]
Instruct2Actは、ロボット操作タスクのシーケンシャルアクションにマルチモーダル命令をマッピングするフレームワークである。
我々のアプローチは、様々な命令のモダリティや入力タイプを調節する上で、調整可能で柔軟なものである。
我々のゼロショット法は、いくつかのタスクにおいて、最先端の学習ベースのポリシーよりも優れていた。
論文 参考訳(メタデータ) (2023-05-18T17:59:49Z) - Toolformer: Language Models Can Teach Themselves to Use Tools [62.04867424598204]
言語モデル(LM)は、特に大規模において、いくつかの例やテキスト命令から新しいタスクを解く素晴らしい能力を示す。
LMは、シンプルなAPIを通じて外部ツールの使用を自覚し、両方の世界のベストを達成できることを示します。
Toolformerは、どのAPIを呼び出すか、いつ呼び出すか、どの引数を渡すか、結果を将来のトークン予測に最もうまく組み込む方法を訓練したモデルです。
論文 参考訳(メタデータ) (2023-02-09T16:49:57Z) - Automated Source Code Generation and Auto-completion Using Deep
Learning: Comparing and Discussing Current Language-Model-Related Approaches [0.0]
本稿では、異なるディープラーニングアーキテクチャを比較して、プログラミングコードに基づく言語モデルを作成し、使用する。
それぞれのアプローチのさまざまな長所と短所と、言語モデルを評価したり、実際のプログラミングコンテキストでそれらを適用するためのギャップについて論じる。
論文 参考訳(メタデータ) (2020-09-16T15:17:04Z) - Deep Learning for Source Code Modeling and Generation: Models,
Applications and Challenges [5.4052819252055055]
自然言語処理のためのディープラーニング(DL)技術は急速に進化してきた。
近年,言語モデリング,機械翻訳,段落理解の進歩が目覚ましいため,ソフトウェア工学におけるDLの可能性を見落とせない。
論文 参考訳(メタデータ) (2020-02-13T11:02:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。