論文の概要: Explainability as a Requirement for Hardware: Introducing Explainable Hardware (XHW)
- arxiv url: http://arxiv.org/abs/2302.14661v2
- Date: Thu, 25 Apr 2024 07:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-27 00:27:30.863923
- Title: Explainability as a Requirement for Hardware: Introducing Explainable Hardware (XHW)
- Title(参考訳): ハードウェア要件としての説明可能性:説明可能なハードウェア(XHW)の導入
- Authors: Timo Speith, Julian Speith, Steffen Becker, Yixin Zou, Asia Biega, Christof Paar,
- Abstract要約: 現代のマイクロチップの不透明さは、セキュリティの問題を引き起こす。
政府は、セキュアなマイクロチップサプライチェーンを促進するために、大幅に投資する。
本稿では、説明可能なハードウェア(XHW)の概念を紹介する。
- 参考スコア(独自算出の注目度): 9.671698593620134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In today's age of digital technology, ethical concerns regarding computing systems are increasing. While the focus of such concerns currently is on requirements for software, this article spotlights the hardware domain, specifically microchips. For example, the opaqueness of modern microchips raises security issues, as malicious actors can manipulate them, jeopardizing system integrity. As a consequence, governments invest substantially to facilitate a secure microchip supply chain. To combat the opaqueness of hardware, this article introduces the concept of Explainable Hardware (XHW). Inspired by and building on previous work on Explainable AI (XAI) and explainable software systems, we develop a framework for achieving XHW comprising relevant stakeholders, requirements they might have concerning hardware, and possible explainability approaches to meet these requirements. Through an exploratory survey among 18 hardware experts, we showcase applications of the framework and discover potential research gaps. Our work lays the foundation for future work and structured debates on XHW.
- Abstract(参考訳): 今日のデジタル技術の時代には、コンピューティングシステムに関する倫理的な懸念が増している。
このような懸念の焦点は現在、ソフトウェアの要件に焦点を当てていますが、この記事では、ハードウェア領域、特にマイクロチップに注目します。
例えば、現代のマイクロチップの不透明さは、悪意のあるアクターがそれらを操作でき、システムの整合性を脅かすため、セキュリティ上の問題を引き起こす。
その結果、政府は安全なマイクロチップのサプライチェーンを促進するために大幅に投資した。
本稿では,ハードウェアの不透明さに対処するために,説明可能なハードウェア(XHW)の概念を紹介する。
説明可能なAI(XAI)と説明可能なソフトウェアシステムに関する以前の研究に触発され、私たちは、関連するステークホルダー、ハードウェアに関する可能性のある要件、これらの要件を満たすための説明可能性アプローチを含むXHWを達成するためのフレームワークを開発しました。
18人のハードウェア専門家による探索的な調査を通じて、このフレームワークの応用を紹介し、潜在的な研究ギャップを発見する。
我々の研究は、XHWに関する今後の研究と構造化された議論の基礎を築いた。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - A New Perspective on Evaluation Methods for Explainable Artificial
Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:15:44Z) - Revisiting the Performance-Explainability Trade-Off in Explainable
Artificial Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:07:40Z) - "Explanation" is Not a Technical Term: The Problem of Ambiguity in XAI [2.5899040911480173]
本稿では,これらの特徴を実用性評価に利用する方法について検討する。
我々は,機能的役割によって定義された説明の要件,理解しようとするユーザの知識状態,それらの生成に必要な情報の提供に焦点をあてる。
論文 参考訳(メタデータ) (2022-06-27T21:42:53Z) - Can Requirements Engineering Support Explainable Artificial
Intelligence? Towards a User-Centric Approach for Explainability Requirements [9.625088778011717]
我々は要求工学(RE)と説明可能なAI(XAI)の相乗効果について議論する。
我々は、XAIの分野における課題を強調し、これらの課題を緩和するためにREプラクティスがどのように役立つかに関するフレームワークと研究の方向性を提案します。
論文 参考訳(メタデータ) (2022-06-03T11:17:41Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - Directions for Explainable Knowledge-Enabled Systems [3.7250420821969827]
我々は、人工知能と密接に関連する分野における説明文献の調査を活用して、一連の説明型を生成する。
それぞれの型を定義し、このスタイルの説明の必要性を動機付けるサンプル質問を提供します。
この一連の説明型は、将来のシステム設計者が要求の生成と優先順位付けに役立ちます。
論文 参考訳(メタデータ) (2020-03-17T04:34:29Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。