論文の概要: Towards a Quantum Software Modeling Language
- arxiv url: http://arxiv.org/abs/2006.16690v1
- Date: Tue, 30 Jun 2020 11:27:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 01:25:01.356090
- Title: Towards a Quantum Software Modeling Language
- Title(参考訳): 量子ソフトウェアモデリング言語を目指して
- Authors: Carlos A. Perez-Delgado and Hector G. Perez-Gonzalez
- Abstract要約: 私たちは、よく知られたUnified Modeling Language(UML)に最小限の拡張セットを提示します。
これらの拡張は、あらゆる量子ソフトウェアをモデル化し、抽象的にモデル化するのに必要であり、十分であると主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We set down the principles behind a modeling language for quantum software.
We present a minimal set of extensions to the well-known Unified Modeling
Language (UML) that allows it to effectively model quantum software. These
extensions are separate and independent of UML as a whole. As such they can be
used to extend any other software modeling language, or as a basis for a
completely new language. We argue that these extensions are both necessary and
sufficient to model, abstractly, any piece of quantum software. Finally, we
provide a small set of examples that showcase the effectiveness of the
extension set.
- Abstract(参考訳): 量子ソフトウェアのためのモデリング言語の背後にある原則を定めました。
量子ソフトウェアを効果的にモデル化できるUML(Unified Modeling Language)に、最小限の拡張セットを提示します。
これらの拡張はUMLとは独立している。
そのため、他のソフトウェアモデリング言語を拡張したり、全く新しい言語の基盤として利用することができる。
これらの拡張は、抽象的に、あらゆる量子ソフトウェアをモデル化するのに必要かつ十分であると主張する。
最後に,拡張セットの有効性を示す例をいくつか紹介する。
関連論文リスト
- Multi-modal Instruction Tuned LLMs with Fine-grained Visual Perception [63.03288425612792]
マルチモーダル参照から画素単位のオブジェクト認識と自然言語記述を生成できる汎用MLLMモデルであるbfAnyRefを提案する。
本モデルでは,領域レベルの参照表現生成とセグメンテーションの多様さを含む,複数のベンチマークにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2024-03-05T13:45:46Z) - Sentinels of the Stream: Unleashing Large Language Models for Dynamic
Packet Classification in Software Defined Networks -- Position Paper [0.0]
本稿では,ネットワークセキュリティ分野における大規模言語モデルの適用可能性について検討する。
我々は,LLMであるSentinelを作成し,ネットワークパケットの内容を分析し,その脅威レベルを判断する。
論文 参考訳(メタデータ) (2024-02-10T04:47:58Z) - The Curious Case of Nonverbal Abstract Reasoning with Multi-Modal Large
Language Models [20.177263185773153]
MLLM(Multi-modal large language model)は、言語情報と視覚情報を統合したものである。
MLLMの革新的展望にもかかわらず、推論能力に対する我々の理解は限られている。
論文 参考訳(メタデータ) (2024-01-22T16:57:05Z) - mPLUG-Owl: Modularization Empowers Large Language Models with
Multimodality [55.698502221911944]
mPLUG-Owlは、大規模言語モデル(LLM)にマルチモーダル能力を持たせる訓練パラダイムである。
トレーニングパラダイムは、LLMの助けを借りて視覚知識を学ぶ、画像とテキストの整列のための2段階の手法を含む。
実験の結果,本モデルは既存のマルチモーダルモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-04-27T13:27:01Z) - PaLM-E: An Embodied Multimodal Language Model [101.29116156731762]
本研究では,実世界の連続型センサを言語モデルに組み込むための具体的言語モデルを提案する。
我々は、複数の具体的タスクのために、事前訓練された大規模言語モデルとともに、これらのエンコーディングをエンドツーエンドにトレーニングする。
562Bパラメータを持つ大モデル PaLM-E-562B は、OK-VQA 上での最先端性能を持つ視覚言語ジェネラリストである。
論文 参考訳(メタデータ) (2023-03-06T18:58:06Z) - Augmented Language Models: a Survey [55.965967655575454]
この調査は、言語モデル(LM)が推論スキルとツールの使用能力で強化されているかのレビューを行う。
私たちはこれらをAugmented Language Models (ALMs)と呼ぶ。
トークンの目的の欠如により、ALMは標準的な自然言語タスクを実行しながら、推論、ツールの使用、さらには行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-02-15T18:25:52Z) - Specializing Smaller Language Models towards Multi-Step Reasoning [56.78474185485288]
GPT-3.5 (ge$ 175B) から T5 変種 (le$ 11B) までを蒸留できることを示す。
対象タスクに対するモデルの能力を専門化するモデル特殊化を提案する。
論文 参考訳(メタデータ) (2023-01-30T08:51:19Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z) - On the Universality of Deep COntextual Language Models [15.218264849664715]
ELMOやBERTのような深い文脈言語モデル(LM)は、自然言語処理のランドスケープを支配している。
XLM-RやmBERTのような多言語モデルでは、ゼロショットのクロスリンガル転送が期待できる結果となった。
この最初の成功により、訓練済みのモデルはユニバーサル言語モデルとして使用されている。
論文 参考訳(メタデータ) (2021-09-15T08:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。