論文の概要: PACuna: Automated Fine-Tuning of Language Models for Particle
Accelerators
- arxiv url: http://arxiv.org/abs/2310.19106v2
- Date: Fri, 24 Nov 2023 11:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 02:52:06.265013
- Title: PACuna: Automated Fine-Tuning of Language Models for Particle
Accelerators
- Title(参考訳): PACuna: 粒子加速器のための言語モデルの自動調整
- Authors: Antonin Sulc, Raimund Kammering, Annika Eichler, Tim Wilksen
- Abstract要約: PACunaは、カンファレンスやプレプリント、書籍など、一般公開されたアクセラレータリソースを通じて洗練された、微調整された言語モデルである。
専門家の関与を最小限に抑え、データを公開できるように、データ収集と質問生成を自動化する。
- 参考スコア(独自算出の注目度): 1.9389881806157316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Navigating the landscape of particle accelerators has become increasingly
challenging with recent surges in contributions. These intricate devices
challenge comprehension, even within individual facilities. To address this, we
introduce PACuna, a fine-tuned language model refined through publicly
available accelerator resources like conferences, pre-prints, and books. We
automated data collection and question generation to minimize expert
involvement and make the data publicly available. PACuna demonstrates
proficiency in addressing intricate accelerator questions, validated by
experts. Our approach shows adapting language models to scientific domains by
fine-tuning technical texts and auto-generated corpora capturing the latest
developments can further produce pre-trained models to answer some intricate
questions that commercially available assistants cannot and can serve as
intelligent assistants for individual facilities.
- Abstract(参考訳): 粒子加速器の展望のナビゲートは、近年の貢献の急増とともにますます困難になっている。
これらの複雑なデバイスは、個々の施設内でさえ、理解に挑戦する。
カンファレンスやプレプリント,書籍など,公開されているアクセラレーションリソースを通じて洗練された,微調整された言語モデルであるpacunaを紹介する。
専門家の関与を最小限に抑え、データを公開できるように、データ収集と質問生成を自動化する。
PACunaは、専門家によって検証された複雑なアクセラレーター問題に対処する能力を示す。
提案手法は, 専門文献を微調整し, 自動生成コーパスを抽出することにより, 市販のアシスタントが個々の施設のインテリジェントアシスタントとして機能し得ない, 複雑な質問に答えるために, 事前学習されたモデルをさらに作成できることを示す。
関連論文リスト
- RAG-Driver: Generalisable Driving Explanations with Retrieval-Augmented
In-Context Learning in Multi-Modal Large Language Model [23.375226325953587]
提案するRAG-Driverは,高機能,説明性,一般化可能な自律運転にコンテキスト内学習を活用する,検索強化型多モード大言語モデルである。
RAG-Driverが運転動作の説明,正当化,制御信号の予測を行う上で,最先端の性能を発揮することを実証的に検証した。
論文 参考訳(メタデータ) (2024-02-16T16:57:18Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Detection of Machine-Generated Text: Literature Survey [0.0]
本研究の目的は,機械生成テキスト分野における成果と成果をコンパイルし,合成することである。
また、機械が生成するテキストの傾向を概観し、より大きな社会的意味を探求する。
論文 参考訳(メタデータ) (2024-01-02T01:44:15Z) - How to Build an AI Tutor that Can Adapt to Any Course and Provide
Accurate Answers Using Large Language Model and Retrieval-Augmented
Generation [0.0]
本稿では,最先端のLarge Language Model (LLM)を用いて,どの科目でもパーソナライズされた学習を提供する,革新的なWebアプリケーションであるAI Tutorを紹介する。
学生が質問を行うと、最も関連性の高い情報を取得し、証拠を引用して詳細な会話応答を生成する。
私たちは、AI Tutorの汎用性をさまざまなテーマに示す、フル機能のWebインターフェースとビデオデモを紹介します。
論文 参考訳(メタデータ) (2023-11-29T15:02:46Z) - GPT4AIGChip: Towards Next-Generation AI Accelerator Design Automation
via Large Language Models [32.58951432235751]
GPT4AIGChipは、人間の自然言語を活用してAIアクセラレータ設計を民主化するためのフレームワークである。
この研究は、LLMを利用した自動AIアクセラレータ生成のための効果的なパイプラインを初めて実証したものだ。
論文 参考訳(メタデータ) (2023-09-19T16:14:57Z) - When Large Language Models Meet Personalization: Perspectives of
Challenges and Opportunities [60.5609416496429]
大規模言語モデルの能力は劇的に改善されている。
このような大きな飛躍的なAI能力は、パーソナライゼーションの実施方法のパターンを変えるだろう。
大規模言語モデルを汎用インターフェースとして活用することにより、パーソナライズシステムはユーザ要求を計画にコンパイルすることができる。
論文 参考訳(メタデータ) (2023-07-31T02:48:56Z) - Large Language Models as General Pattern Machines [64.75501424160748]
我々は,事前訓練された大規模言語モデル (LLM) が,複雑なトークンシーケンスを自動回帰的に完了することを示す。
驚いたことに、語彙からランダムにサンプリングされたトークンを用いてシーケンスが表現された場合でも、パターン完了の習熟度を部分的に保持することができる。
本研究では,ロボット工学における問題に対して,これらのゼロショット機能がどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-07-10T17:32:13Z) - PlaSma: Making Small Language Models Better Procedural Knowledge Models
for (Counterfactual) Planning [72.0564921186518]
PlaSmaは、手続き的な知識と(非現実的な)計画能力を持つ小さな言語モデルを実現するための、新しい2段階のアプローチである。
より具体的には、小言語モデルにおける暗黙的知識を高めるために、記号的手続き的知識蒸留を開発する。
さらに, 対実的状況に対応するための計画の見直しを必要とする, 対実的計画という新たな課題を導入する。
論文 参考訳(メタデータ) (2023-05-31T00:55:40Z) - Automated Audio Captioning: an Overview of Recent Progress and New
Challenges [56.98522404673527]
自動音声キャプションは、与えられた音声クリップの自然言語記述を生成することを目的とした、モーダル横断翻訳タスクである。
本稿では、既存の様々なアプローチから評価指標やデータセットまで、自動音声キャプションにおけるコントリビューションの総合的なレビューを行う。
論文 参考訳(メタデータ) (2022-05-12T08:36:35Z) - MONAI Label: A framework for AI-assisted Interactive Labeling of 3D
Medical Images [49.664220687980006]
注釈付きデータセットの欠如は、タスク固有の教師付き機械学習モデルをトレーニングする上で、大きなボトルネックとなる。
本稿では,人工知能(AI)モデルに基づくアプリケーション開発を支援する,フリーかつオープンソースなフレームワークであるmonAI Labelを紹介する。
論文 参考訳(メタデータ) (2022-03-23T12:33:11Z) - A Short Survey of Pre-trained Language Models for Conversational AI-A
NewAge in NLP [17.10418053437171]
最近導入された事前学習言語モデルは、データ不足の問題に対処する可能性がある。
これらのモデルは、階層的関係、長期依存、感情など、異なる言語の側面を捉えることを実証している。
本論文では,これらの事前学習モデルが対話システムに関連する課題を克服できるかどうかを明らかにする。
論文 参考訳(メタデータ) (2021-04-22T01:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。