論文の概要: Chattronics: using GPTs to assist in the design of data acquisition systems
- arxiv url: http://arxiv.org/abs/2409.15183v1
- Date: Mon, 23 Sep 2024 16:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 14:13:28.220407
- Title: Chattronics: using GPTs to assist in the design of data acquisition systems
- Title(参考訳): チャットトロニクス:GPTを使ってデータ取得システムの設計を支援する
- Authors: Jonathan Paul Driemeyer Brown, Tiago Oliveira Weber,
- Abstract要約: 本稿では,データ取得システムの設計段階を支援するために,汎用事前学習変換器を用いた新しい手法を提案する。
このソリューションは、LLMの会話的側面を保持するアプリケーションという形でパッケージ化されている。
160回の試行を経て、この研究はこれらのモデルがデータ取得システムの合成・補助ツールとして適切に機能する可能性があると結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The usefulness of Large Language Models (LLM) is being continuously tested in various fields. However, their intrinsic linguistic characteristic is still one of the limiting factors when applying these models to exact sciences. In this article, a novel approach to use General Pre-Trained Transformers to assist in the design phase of data acquisition systems will be presented. The solution is packaged in the form of an application that retains the conversational aspects of LLMs, in such a manner that the user must provide details on the desired project in order for the model to draft both a system-level architectural diagram and the block-level specifications, following a Top-Down methodology based on restrictions. To test this tool, two distinct user emulations were used, one of which uses an additional GPT model. In total, 4 different data acquisition projects were used in the testing phase, each with its own measurement requirements: angular position, temperature, acceleration and a fourth project with both pressure and superficial temperature measurements. After 160 test iterations, the study concludes that there is potential for these models to serve adequately as synthesis/assistant tools for data acquisition systems, but there are still technological limitations. The results show coherent architectures and topologies, but that GPTs have difficulties in simultaneously considering all requirements and many times commits theoretical mistakes.
- Abstract(参考訳): 大規模言語モデル(LLM)の有用性は、様々な分野で継続的にテストされている。
しかし、その固有の言語特性は、これらのモデルを正確な科学に適用する際の制限要因の1つである。
本稿では, 汎用事前学習変換器を用いてデータ取得システムの設計フェーズを支援する新しい手法を提案する。
システムレベルのアーキテクチャ図とブロックレベルの仕様の両方をドラフトするために、ユーザが所望のプロジェクトの詳細を提示しなければならないように、LLMの会話的側面を保持するアプリケーションの形式でパッケージ化されている。
このツールをテストするために、2つの異なるエミュレーションが使われ、そのうちの1つは追加のGPTモデルを使用していた。
試験段階では計4つの異なるデータ取得プロジェクトを使用しており、それぞれが角度位置、温度、加速度、および圧力と表面温度の両方を計測する4番目のプロジェクトである。
160回の試行を経て、この研究はこれらのモデルがデータ取得システムの合成・補助ツールとして適切に機能する可能性があると結論づけるが、まだ技術的な制限がある。
結果は、一貫性のあるアーキテクチャとトポロジを示すが、GPTは全ての要件を同時に考慮することが困難であり、しばしば理論上の誤りを犯す。
関連論文リスト
- ToolACE: Winning the Points of LLM Function Calling [139.07157814653638]
ToolACEは、正確で複雑で多様なツール学習データを生成するように設計された自動エージェントパイプラインである。
我々は、合成データに基づいてトレーニングされたモデルが、8Bパラメータだけで、バークレー・ファンクション・カリング・リーダーボード上で最先端のパフォーマンスを達成することを実証した。
論文 参考訳(メタデータ) (2024-09-02T03:19:56Z) - Experimenting with Multi-Agent Software Development: Towards a Unified Platform [3.3485481369444674]
大規模言語モデルは、ソフトウェア開発プロセス全体を通してAI駆動技術を実装することで、ソフトウェア工学を再定義している。
本研究は,複数の人工知能エージェントを用いて,ユーザの要求を適切に構成された納品物に変換するプロセスを自動化する統一プラットフォームを開発することを目的とする。
プラットフォームはタスクを整理し、セキュリティとコンプライアンスを実行し、非機能要件の設計パターンと改善を提案する。
論文 参考訳(メタデータ) (2024-06-08T07:27:01Z) - TAT-LLM: A Specialized Language Model for Discrete Reasoning over Tabular and Textual Data [73.29220562541204]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z) - Code Soliloquies for Accurate Calculations in Large Language Models [22.1024285108075]
高品質な会話データセットは、Intelligent Tutoring Systemsの開発の成功に不可欠である。
これらのデータセットは、高度なGPT-4モデルを用いて生成される。
本設計では,GPT-4によって学生と教師の双方の役割をシミュレートした模擬会話を編成する。
提案手法は,特に計算集約的な被験者を対象に,合成会話データセットの品質を向上させる。
論文 参考訳(メタデータ) (2023-09-21T15:16:58Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - AutoML-GPT: Large Language Model for AutoML [5.9145212342776805]
包括的なツールとライブラリを統合するAutoML-GPTというフレームワークを確立しました。
会話インターフェースを通じて、ユーザーは要求、制約、評価メトリクスを指定できる。
我々は、AutoML-GPTが機械学習タスクに必要な時間と労力を大幅に削減することを示した。
論文 参考訳(メタデータ) (2023-09-03T09:39:49Z) - Exploring the Trade-Offs: Unified Large Language Models vs Local
Fine-Tuned Models for Highly-Specific Radiology NLI Task [49.50140712943701]
NLIタスクにおけるChatGPT/GPT-4の性能評価を行い、タスク関連データサンプルに特化して微調整された他のモデルと比較する。
また,ChatGPT/GPT-4の推論能力について,様々な推論難易度を導入して総合的な調査を行った。
論文 参考訳(メタデータ) (2023-04-18T17:21:48Z) - Beyond Statistical Similarity: Rethinking Metrics for Deep Generative
Models in Engineering Design [10.531935694354448]
本稿では,工学設計における深部生成モデル(DGM)の評価指標のレビューと実践的指針として,その2つを考察する。
まず,機械学習理論を基礎とした深層生成モデルに対する古典的評価指標について概説する。
次に、深い生成モデルを評価するために使用できる設計固有のメトリクスのセットをキュレートする。
論文 参考訳(メタデータ) (2023-02-06T16:34:16Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Language Models as Few-Shot Learner for Task-Oriented Dialogue Systems [74.8759568242933]
タスク指向対話システムは、自然言語理解(NLU)、対話状態追跡(DST)、対話ポリシー(DP)、自然言語生成(NLG)の4つの連結モジュールを使用する。
研究課題は、データ収集に関連する高コストから最小限のサンプルで各モジュールを学習することである。
我々は,NLU,DP,NLGタスクにおいて,言語モデルの素小ショット能力を評価する。
論文 参考訳(メタデータ) (2020-08-14T08:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。