論文の概要: Quantum Computer Benchmarking: An Explorative Systematic Literature Review
- arxiv url: http://arxiv.org/abs/2509.03078v1
- Date: Wed, 03 Sep 2025 07:13:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.44585
- Title: Quantum Computer Benchmarking: An Explorative Systematic Literature Review
- Title(参考訳): 量子コンピュータベンチマーク: 探索的体系的文献レビュー
- Authors: Tobias Rohe, Federico Harjes Ruiloba, Sabrina Egger, Sebastian von Beck, Jonas Stein, Claudia Linnhoff-Popien,
- Abstract要約: 現在までに最も包括的な体系的な文献レビューを行っている。
量子スタックとその利害関係者に合わせて、QCベンチマークのための新しい分類法と定義を開発する。
我々の分析では、繰り返し発生する設計パターンを明らかにし、研究のギャップを露呈し、ベンチマーク手法が異なる利害関係者にどのように役立つかを明らかにする。
- 参考スコア(独自算出の注目度): 2.2155582827470544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As quantum computing (QC) continues to evolve in hardware and software, measuring progress in this complex and diverse field remains a challenge. To track progress, uncover bottlenecks, and evaluate community efforts, benchmarks play a crucial role. But which benchmarking approach best addresses the diverse perspectives of QC stakeholders? We conducted the most comprehensive systematic literature review of this area to date, combining NLP-based clustering with expert analysis to develop a novel taxonomy and definitions for QC benchmarking, aligned with the quantum stack and its stakeholders. In addition to organizing benchmarks in distinct hardware, software, and application focused categories, our taxonomy hierarchically classifies benchmarking protocols in clearly defined subcategories. We develop standard terminology and map the interdependencies of benchmark categories to create a holistic, unified picture of the quantum benchmarking landscape. Our analysis reveals recurring design patterns, exposes research gaps, and clarifies how benchmarking methods serve different stakeholders. By structuring the field and providing a common language, our work offers a foundation for coherent benchmark development, fairer evaluation, and stronger cross-disciplinary collaboration in QC.
- Abstract(参考訳): 量子コンピューティング(QC)はハードウェアとソフトウェアで進化を続けており、この複雑で多様な分野の進歩を測定することは依然として課題である。
進捗を追跡し、ボトルネックを明らかにし、コミュニティの努力を評価するために、ベンチマークは重要な役割を果たす。
しかし、どのベンチマークアプローチがQC利害関係者のさまざまな視点に最も適していますか?
我々はこれまで,NLPに基づくクラスタリングと専門家分析を組み合わせて,量子スタックとその利害関係者に合わせて,QCベンチマークのための新しい分類と定義を開発した。
異なるハードウェア、ソフトウェア、アプリケーションに焦点を当てたカテゴリでベンチマークを編成するのに加えて、分類学は階層的に、明確に定義されたサブカテゴリでベンチマークプロトコルを分類します。
我々は、標準用語を開発し、ベンチマークカテゴリの相互依存性をマッピングし、量子ベンチマークの全体像を総合的に統一した図を作成する。
我々の分析では、繰り返し発生する設計パターンを明らかにし、研究のギャップを露呈し、ベンチマーク手法が異なる利害関係者にどのように役立つかを明らかにする。
この分野の構築と共通言語の提供によって、我々の研究は、コヒーレントなベンチマーク開発、より公平な評価、QCにおけるより強力な学際的なコラボレーションの基礎を提供する。
関連論文リスト
- Expert Preference-based Evaluation of Automated Related Work Generation [54.29459509574242]
本稿では,従来の作業評価基準と専門家固有の嗜好を統合したマルチターン評価フレームワークGREPを提案する。
より優れたアクセシビリティを実現するため、我々はGREPの2つの変種を設計する: プロプライエタリなLLMを評価対象とするより正確な変種と、オープンウェイトなLLMをより安価な代替品である。
論文 参考訳(メタデータ) (2025-08-11T13:08:07Z) - Discrete Tokenization for Multimodal LLMs: A Comprehensive Survey [69.45421620616486]
本研究は、大規模言語モデル(LLM)用に設計された離散トークン化手法の最初の構造的分類と解析である。
古典的および近代的なパラダイムにまたがる8つの代表的なVQ変種を分類し、アルゴリズムの原理を分析し、力学を訓練し、LLMパイプラインとの統合に挑戦する。
コードブックの崩壊、不安定な勾配推定、モダリティ固有の符号化制約など、重要な課題を特定する。
論文 参考訳(メタデータ) (2025-07-21T10:52:14Z) - BenchQC -- Scalable and modular benchmarking of industrial quantum computing applications [26.629709879735532]
BenchQCは、現実世界の量子アプリケーションをベンチマークするためのアプリケーション中心の視点を促進する。
我々は、有意義なトレンドを明らかにし、量子ユーティリティに関する体系的なガイダンスを提供し、有望な研究方向を実現不可能なアプローチと区別することを目的としている。
論文 参考訳(メタデータ) (2025-04-15T14:05:11Z) - Systematic benchmarking of quantum computers: status and recommendations [1.1961811541956795]
ベンチマークは量子コンピュータの性能を評価するために重要である。
この文書はコンポーネントレベル、システムレベル、ソフトウェアレベル、HPCレベル、アプリケーションレベルベンチマークといった重要な側面を強調している。
論文 参考訳(メタデータ) (2025-03-06T19:05:13Z) - MultiAgentBench: Evaluating the Collaboration and Competition of LLM agents [59.825725526176655]
大規模言語モデル(LLM)は、自律的なエージェントとして顕著な能力を示している。
既存のベンチマークでは、単一エージェントタスクにフォーカスするか、狭いドメインに限定されており、マルチエージェントのコーディネーションと競合のダイナミクスを捉えていない。
多様な対話シナリオにまたがってLLMベースのマルチエージェントシステムを評価するためのベンチマークであるMultiAgentBenchを紹介する。
論文 参考訳(メタデータ) (2025-03-03T05:18:50Z) - Leveraging Large Language Models for NLG Evaluation: Advances and Challenges [57.88520765782177]
大規模言語モデル(LLM)は、コヒーレンス、クリエイティビティ、コンテキスト関連など、生成されたコンテンツ品質を評価するための新たな道を開いた。
既存のLCMに基づく評価指標を整理し、これらの手法を理解し比較するための構造化された枠組みを提供する。
本稿では, 偏見, 堅牢性, ドメイン固有性, 統一評価などの未解決課題を議論することによって, 研究者に洞察を提供し, より公平で高度なNLG評価手法を提唱することを目的とする。
論文 参考訳(メタデータ) (2024-01-13T15:59:09Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - QUARK: A Framework for Quantum Computing Application Benchmarking [0.0]
本稿では,QC 用アプリケーションベンチマークの研究開発を促進するために,アプリケーション中心ベンチマーク手法と QUARK フレームワークを提案する。
本稿では,アプリケーションレベルのベンチマークを事例とし,2つの基準問題の詳細な「ペンと紙」ベンチマークを定式化する。
論文 参考訳(メタデータ) (2022-02-07T09:41:24Z) - QAFactEval: Improved QA-Based Factual Consistency Evaluation for
Summarization [116.56171113972944]
QAベースのメトリクスのコンポーネントを慎重に選択することは、パフォーマンスにとって重要であることを示す。
提案手法は,最良性能のエンテーメントに基づく測定値を改善し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-12-16T00:38:35Z) - HAWKS: Evolving Challenging Benchmark Sets for Cluster Analysis [2.5329716878122404]
クラスタリングアルゴリズムの包括的なベンチマークは難しい。
厳格なベンチマークのベストプラクティスに関する合意はありません。
このようなベンチマークのフレキシブルな生成を支援するために,進化的アルゴリズムが果たす重要な役割を実証する。
論文 参考訳(メタデータ) (2021-02-13T15:01:34Z) - Exploring and Analyzing Machine Commonsense Benchmarks [0.13999481573773073]
我々は、これらのアプローチのメタデータを調整するための共通の語彙の欠如は、システムの欠陥を理解するための努力で研究者を制限します。
ベンチマークメタデータを形式化する一般的な語彙であるMCS Benchmark Ontologyについて説明します。
論文 参考訳(メタデータ) (2020-12-21T19:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。