論文の概要: Hardware.jl - An MLIR-based Julia HLS Flow (Work in Progress)
- arxiv url: http://arxiv.org/abs/2503.09463v1
- Date: Wed, 12 Mar 2025 15:12:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:36:14.145466
- Title: Hardware.jl - An MLIR-based Julia HLS Flow (Work in Progress)
- Title(参考訳): Hardware.jl - MLIRベースのJulia HLS Flow(開発中)
- Authors: Benedict Short, Ian McInerney, John Wickerson,
- Abstract要約: われわれはJulia言語のための再利用可能なエンドツーエンドのコンパイラツールチェーンを開発している。
これにより、Juliaソースコードを自動的に高性能なVerilogに合成することで、アクセラレータとアルゴリズムの開発を統一する。
- 参考スコア(独自算出の注目度): 1.2152813244704233
- License:
- Abstract: Co-developing scientific algorithms and hardware accelerators requires domain-specific knowledge and large engineering resources. This leads to a slow development pace and high project complexity, which creates a barrier to entry that is too high for the majority of developers to overcome. We are developing a reusable end-to-end compiler toolchain for the Julia language entirely built on permissively-licensed open-source projects. This unifies accelerator and algorithm development by automatically synthesising Julia source code into high-performance Verilog.
- Abstract(参考訳): 科学アルゴリズムとハードウェアアクセラレータの共同開発には、ドメイン固有の知識と大規模なエンジニアリングリソースが必要である。
これによって開発ペースが遅くなり、プロジェクトの複雑さが増し、ほとんどの開発者が乗り越えるには高すぎる参入障壁が生まれます。
パーミッシブライセンスのオープンソースプロジェクトで完全に構築されたJulia言語のための、再利用可能なエンドツーエンドのコンパイラツールチェーンを開発しています。
これにより、Juliaソースコードを自動的に高性能なVerilogに合成することで、アクセラレータとアルゴリズムの開発を統一する。
関連論文リスト
- LLM-Aided Compilation for Tensor Accelerators [6.709490736813537]
我々は,大規模言語モデル(LLM)を用いてハードウェアアクセラレーター用のコンパイラを構築する方法について論じる。
具体的には,GPT-4がGemminiアクセラレータへのコード変換において高いパスレートを達成する能力を示す。
また,LLMを利用してハードウェア最適化コードを生成するための2フェーズワークフローを提案する。
論文 参考訳(メタデータ) (2024-08-06T19:10:25Z) - OpenHands: An Open Platform for AI Software Developers as Generalist Agents [109.8507367518992]
私たちは、人間の開発者と同じような方法で世界と対話するAIエージェントを開発するためのプラットフォームであるOpenHandsを紹介します。
プラットフォームが新しいエージェントの実装を可能にし、コード実行のためのサンドボックス環境との安全なインタラクション、評価ベンチマークの導入について説明する。
論文 参考訳(メタデータ) (2024-07-23T17:50:43Z) - The GitHub Development Workflow Automation Ecosystems [47.818229204130596]
大規模なソフトウェア開発は、非常に協力的な取り組みになっています。
この章では、開発ボットとGitHub Actionsのエコシステムについて解説する。
この領域における最先端技術に関する広範な調査を提供する。
論文 参考訳(メタデータ) (2023-05-08T15:24:23Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - CFU Playground: Full-Stack Open-Source Framework for Tiny Machine
Learning (tinyML) Acceleration on FPGAs [2.2177069086277195]
CFU Playgroundは、組み込みMLシステムのための機械学習アクセラレータ(ML)の迅速かつ反復的な設計を可能にする、フルスタックのオープンソースフレームワークである。
我々のツールはFPGAと将来のシステム研究におけるハードウェアとソフトウェアの共同設計のために、完全にオープンソースでエンドツーエンドのフローを提供する。
私たちの迅速なデプロイ-注目-最適化フィードバックループによって、MLハードウェアとソフトウェア開発者は、比較的小さな投資から大きなリターンを得られるようになります。
論文 参考訳(メタデータ) (2022-01-05T23:15:58Z) - CompilerGym: Robust, Performant Compiler Optimization Environments for
AI Research [26.06438868492976]
コンパイラ最適化に人工知能(AI)技術を適用することへの関心は急速に高まっている。
しかし、コンパイラー研究は高い参入障壁を持っている。
実世界のコンパイラ最適化タスクのための環境セットであるCompilerGymを紹介する。
また、コンパイラ研究者に新しい最適化タスクを公開するツールキットも導入する。
論文 参考訳(メタデータ) (2021-09-17T01:02:27Z) - Bring Your Own Codegen to Deep Learning Compiler [8.87545486816377]
本稿では,独自のコード生成ツールの開発にのみ集中できるオープンソースフレームワークを提案する。
当社のフレームワークは、柔軟で使いやすいインターフェースをユーザーに提供し、モデルを「最高の」プロセッサで実行できるセグメントに分割します。
論文 参考訳(メタデータ) (2021-05-03T17:22:25Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z) - Julia Language in Machine Learning: Algorithms, Applications, and Open
Issues [5.666843255747851]
機械学習は、科学と工学の分野で開発を推進している。
現在、機械学習アルゴリズムの開発に最もよく使われているプログラミング言語は、PythonとC/C ++である。
本稿では,機械学習におけるJulia言語の適用に関する研究成果と開発状況を要約する。
論文 参考訳(メタデータ) (2020-03-23T09:31:02Z) - PolyScientist: Automatic Loop Transformations Combined with Microkernels
for Optimization of Deep Learning Primitives [55.79741270235602]
深層学習カーネル開発のためのハイブリッドソリューションを開発する。
我々は、高度な多面体技術を用いて、パフォーマンスのために外部ループを自動的に調整する。
論文 参考訳(メタデータ) (2020-02-06T08:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。