論文の概要: Expanding Explainability: From Explainable Artificial Intelligence to
Explainable Hardware
- arxiv url: http://arxiv.org/abs/2302.14661v1
- Date: Tue, 28 Feb 2023 15:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 15:58:25.701408
- Title: Expanding Explainability: From Explainable Artificial Intelligence to
Explainable Hardware
- Title(参考訳): 説明可能性の拡大:説明可能な人工知能から説明可能なハードウェアへ
- Authors: Timo Speith, Julian Speith, Steffen Becker, Yixin Zou, Asia Biega,
Christof Paar
- Abstract要約: 我々は、全てのデジタルシステムが実現される基盤となるハードウェアを考慮しない限り、システム説明性は達成できないと論じる。
XAI(Explainable Artificial Intelligence)に関するこれまでの研究に触発されて、ハードウェアの説明可能性フレームワークを開発した。
- 参考スコア(独自算出の注目度): 11.98733645521365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing opaqueness of AI and its growing influence on our digital
society highlight the necessity for AI-based systems that are trustworthy,
accountable, and fair. Previous research emphasizes explainability as a means
to achieve these properties. In this paper, we argue that system explainability
cannot be achieved without accounting for the underlying hardware on which all
digital systems - including AI applications - are realized. As a remedy, we
propose the concept of explainable hardware, and focus on chips - which are
particularly relevant to current geopolitical discussions on (trustworthy)
semiconductors. Inspired by previous work on Explainable Artificial
Intelligence (XAI), we develop a hardware explainability framework by
identifying relevant stakeholders, unifying existing approaches form hardware
manufacturing under the notion of explainability, and discussing their
usefulness to satisfy different stakeholders' needs. Our work lays the
foundation for future work and structured debates on explainable hardware.
- Abstract(参考訳): AIの不透明さの高まりと、私たちのデジタル社会への影響力の高まりは、信頼できる、説明責任のある、公正なAIベースのシステムの必要性を強調している。
これまでの研究では、これらの性質を達成する手段として説明可能性を強調している。
本稿では、AIアプリケーションを含む全てのデジタルシステムが実現される基盤となるハードウェアを考慮しない限り、システム説明性は達成できないと論じる。
そこで我々は,(信頼性の高い)半導体に関する現在の地政学的議論に特に関係する,説明可能なハードウェアの概念を提案し,チップに焦点を当てる。
説明可能な人工知能(XAI)に関するこれまでの研究に触発されて、我々は、関係する利害関係者を特定し、説明可能性の概念の下で既存のアプローチを統一し、異なる利害関係者のニーズを満たすためのそれらの有用性を議論するハードウェア説明可能性フレームワークを開発した。
我々の研究は、将来の作業の基礎となり、説明可能なハードウェアに関する構造化された議論が行われます。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The Quest to Build Trust Earlier in Digital Design [5.346992067393131]
本稿では,デジタル設計プロセスの初期段階において,デジタルハードウェアのセキュリティを高めるためのツールと技術について述べる。
我々は、設計チームが直面する課題について議論し、ハードウェアセキュリティの弱点を理解し、識別し、緩和する最近の文献を探求する。
オープンソースハードウェア開発で生まれる機会を強調し、この領域で進行中の研究をガイドするいくつかのオープンな質問をスケッチします。
論文 参考訳(メタデータ) (2024-09-09T17:38:18Z) - The Emergence of Hardware Fuzzing: A Critical Review of its Significance [0.4943822978887544]
ソフトウェアテスト方法論にインスパイアされたハードウェアファジングは、複雑なハードウェア設計におけるバグを識別する効果で有名になった。
様々なハードウェアファジィ技術が導入されたにもかかわらず、ハードウェアモジュールのソフトウェアモデルへの非効率な変換などの障害は、その効果を妨げている。
本研究は,脆弱性の同定における既存のハードウェアファジィング手法の信頼性を検証し,今後の設計検証技術の進歩に向けた研究ギャップを同定する。
論文 参考訳(メタデータ) (2024-03-19T15:12:11Z) - Design Verification of the Quantum Control Stack [0.5089990359065384]
本論文は量子コンピューティングの紹介と,古典的デバイス検証技術の適用方法の紹介として機能する。
量子制御スタックを構築する上での2つの大きな課題は、エッジでの正確な決定論的最適化操作と、中間層でのスケールアウト処理である。
論文 参考訳(メタデータ) (2023-10-08T16:51:48Z) - Embedded Software Development with Digital Twins: Specific Requirements
for Small and Medium-Sized Enterprises [55.57032418885258]
デジタル双生児は、コスト効率の良いソフトウェア開発とメンテナンス戦略の可能性を秘めている。
私たちは中小企業に現在の開発プロセスについてインタビューした。
最初の結果は、リアルタイムの要求が、これまでは、Software-in-the-Loop開発アプローチを妨げていることを示している。
論文 参考訳(メタデータ) (2023-09-17T08:56:36Z) - Reliable AI: Does the Next Generation Require Quantum Computing? [71.84486326350338]
デジタルハードウェアは、最適化、ディープラーニング、微分方程式に関する問題の解決に本質的に制約されていることを示す。
対照的に、Blum-Shub-Smale マシンのようなアナログコンピューティングモデルは、これらの制限を克服する可能性を示している。
論文 参考訳(メタデータ) (2023-07-03T19:10:45Z) - The Basis of Design Tools for Quantum Computing: Arrays, Decision
Diagrams, Tensor Networks, and ZX-Calculus [55.58528469973086]
量子コンピュータは、古典的コンピュータが決して起こらない重要な問題を効率的に解決することを約束する。
完全に自動化された量子ソフトウェアスタックを開発する必要がある。
この研究は、今日のツールの"内部"の外観を提供し、量子回路のシミュレーション、コンパイル、検証などにおいてこれらの手段がどのように利用されるかを示す。
論文 参考訳(メタデータ) (2023-01-10T19:00:00Z) - EVHA: Explainable Vision System for Hardware Testing and Assurance -- An
Overview [0.0]
本稿では,ハードウェアテストと保証のための説明可能なビジョンシステム(EVHA)を提案する。
EVHAは、低コストで正確で高速な設計変更を最小限に検出することができる。
本稿では,防衛システムの設計,開発,実装,分析について概説する。
論文 参考訳(メタデータ) (2022-07-20T02:58:46Z) - Can Requirements Engineering Support Explainable Artificial
Intelligence? Towards a User-Centric Approach for Explainability Requirements [9.625088778011717]
我々は要求工学(RE)と説明可能なAI(XAI)の相乗効果について議論する。
我々は、XAIの分野における課題を強調し、これらの課題を緩和するためにREプラクティスがどのように役立つかに関するフレームワークと研究の方向性を提案します。
論文 参考訳(メタデータ) (2022-06-03T11:17:41Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。