論文の概要: Explainability as a Requirement for Hardware: Introducing Explainable Hardware (XHW)
- arxiv url: http://arxiv.org/abs/2302.14661v2
- Date: Thu, 25 Apr 2024 07:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-27 00:27:30.863923
- Title: Explainability as a Requirement for Hardware: Introducing Explainable Hardware (XHW)
- Title(参考訳): ハードウェア要件としての説明可能性:説明可能なハードウェア(XHW)の導入
- Authors: Timo Speith, Julian Speith, Steffen Becker, Yixin Zou, Asia Biega, Christof Paar,
- Abstract要約: 現代のマイクロチップの不透明さは、セキュリティの問題を引き起こす。
政府は、セキュアなマイクロチップサプライチェーンを促進するために、大幅に投資する。
本稿では、説明可能なハードウェア(XHW)の概念を紹介する。
- 参考スコア(独自算出の注目度): 9.671698593620134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In today's age of digital technology, ethical concerns regarding computing systems are increasing. While the focus of such concerns currently is on requirements for software, this article spotlights the hardware domain, specifically microchips. For example, the opaqueness of modern microchips raises security issues, as malicious actors can manipulate them, jeopardizing system integrity. As a consequence, governments invest substantially to facilitate a secure microchip supply chain. To combat the opaqueness of hardware, this article introduces the concept of Explainable Hardware (XHW). Inspired by and building on previous work on Explainable AI (XAI) and explainable software systems, we develop a framework for achieving XHW comprising relevant stakeholders, requirements they might have concerning hardware, and possible explainability approaches to meet these requirements. Through an exploratory survey among 18 hardware experts, we showcase applications of the framework and discover potential research gaps. Our work lays the foundation for future work and structured debates on XHW.
- Abstract(参考訳): 今日のデジタル技術の時代には、コンピューティングシステムに関する倫理的な懸念が増している。
このような懸念の焦点は現在、ソフトウェアの要件に焦点を当てていますが、この記事では、ハードウェア領域、特にマイクロチップに注目します。
例えば、現代のマイクロチップの不透明さは、悪意のあるアクターがそれらを操作でき、システムの整合性を脅かすため、セキュリティ上の問題を引き起こす。
その結果、政府は安全なマイクロチップのサプライチェーンを促進するために大幅に投資した。
本稿では,ハードウェアの不透明さに対処するために,説明可能なハードウェア(XHW)の概念を紹介する。
説明可能なAI(XAI)と説明可能なソフトウェアシステムに関する以前の研究に触発され、私たちは、関連するステークホルダー、ハードウェアに関する可能性のある要件、これらの要件を満たすための説明可能性アプローチを含むXHWを達成するためのフレームワークを開発しました。
18人のハードウェア専門家による探索的な調査を通じて、このフレームワークの応用を紹介し、潜在的な研究ギャップを発見する。
我々の研究は、XHWに関する今後の研究と構造化された議論の基礎を築いた。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The Quest to Build Trust Earlier in Digital Design [5.346992067393131]
本稿では,デジタル設計プロセスの初期段階において,デジタルハードウェアのセキュリティを高めるためのツールと技術について述べる。
我々は、設計チームが直面する課題について議論し、ハードウェアセキュリティの弱点を理解し、識別し、緩和する最近の文献を探求する。
オープンソースハードウェア開発で生まれる機会を強調し、この領域で進行中の研究をガイドするいくつかのオープンな質問をスケッチします。
論文 参考訳(メタデータ) (2024-09-09T17:38:18Z) - The Emergence of Hardware Fuzzing: A Critical Review of its Significance [0.4943822978887544]
ソフトウェアテスト方法論にインスパイアされたハードウェアファジングは、複雑なハードウェア設計におけるバグを識別する効果で有名になった。
様々なハードウェアファジィ技術が導入されたにもかかわらず、ハードウェアモジュールのソフトウェアモデルへの非効率な変換などの障害は、その効果を妨げている。
本研究は,脆弱性の同定における既存のハードウェアファジィング手法の信頼性を検証し,今後の設計検証技術の進歩に向けた研究ギャップを同定する。
論文 参考訳(メタデータ) (2024-03-19T15:12:11Z) - Design Verification of the Quantum Control Stack [0.5089990359065384]
本論文は量子コンピューティングの紹介と,古典的デバイス検証技術の適用方法の紹介として機能する。
量子制御スタックを構築する上での2つの大きな課題は、エッジでの正確な決定論的最適化操作と、中間層でのスケールアウト処理である。
論文 参考訳(メタデータ) (2023-10-08T16:51:48Z) - Embedded Software Development with Digital Twins: Specific Requirements
for Small and Medium-Sized Enterprises [55.57032418885258]
デジタル双生児は、コスト効率の良いソフトウェア開発とメンテナンス戦略の可能性を秘めている。
私たちは中小企業に現在の開発プロセスについてインタビューした。
最初の結果は、リアルタイムの要求が、これまでは、Software-in-the-Loop開発アプローチを妨げていることを示している。
論文 参考訳(メタデータ) (2023-09-17T08:56:36Z) - Reliable AI: Does the Next Generation Require Quantum Computing? [71.84486326350338]
デジタルハードウェアは、最適化、ディープラーニング、微分方程式に関する問題の解決に本質的に制約されていることを示す。
対照的に、Blum-Shub-Smale マシンのようなアナログコンピューティングモデルは、これらの制限を克服する可能性を示している。
論文 参考訳(メタデータ) (2023-07-03T19:10:45Z) - The Basis of Design Tools for Quantum Computing: Arrays, Decision
Diagrams, Tensor Networks, and ZX-Calculus [55.58528469973086]
量子コンピュータは、古典的コンピュータが決して起こらない重要な問題を効率的に解決することを約束する。
完全に自動化された量子ソフトウェアスタックを開発する必要がある。
この研究は、今日のツールの"内部"の外観を提供し、量子回路のシミュレーション、コンパイル、検証などにおいてこれらの手段がどのように利用されるかを示す。
論文 参考訳(メタデータ) (2023-01-10T19:00:00Z) - EVHA: Explainable Vision System for Hardware Testing and Assurance -- An
Overview [0.0]
本稿では,ハードウェアテストと保証のための説明可能なビジョンシステム(EVHA)を提案する。
EVHAは、低コストで正確で高速な設計変更を最小限に検出することができる。
本稿では,防衛システムの設計,開発,実装,分析について概説する。
論文 参考訳(メタデータ) (2022-07-20T02:58:46Z) - Can Requirements Engineering Support Explainable Artificial
Intelligence? Towards a User-Centric Approach for Explainability Requirements [9.625088778011717]
我々は要求工学(RE)と説明可能なAI(XAI)の相乗効果について議論する。
我々は、XAIの分野における課題を強調し、これらの課題を緩和するためにREプラクティスがどのように役立つかに関するフレームワークと研究の方向性を提案します。
論文 参考訳(メタデータ) (2022-06-03T11:17:41Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。