論文の概要: Expanding Explainability: From Explainable Artificial Intelligence to
Explainable Hardware
- arxiv url: http://arxiv.org/abs/2302.14661v1
- Date: Tue, 28 Feb 2023 15:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 15:58:25.701408
- Title: Expanding Explainability: From Explainable Artificial Intelligence to
Explainable Hardware
- Title(参考訳): 説明可能性の拡大:説明可能な人工知能から説明可能なハードウェアへ
- Authors: Timo Speith, Julian Speith, Steffen Becker, Yixin Zou, Asia Biega,
Christof Paar
- Abstract要約: 我々は、全てのデジタルシステムが実現される基盤となるハードウェアを考慮しない限り、システム説明性は達成できないと論じる。
XAI(Explainable Artificial Intelligence)に関するこれまでの研究に触発されて、ハードウェアの説明可能性フレームワークを開発した。
- 参考スコア(独自算出の注目度): 11.98733645521365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing opaqueness of AI and its growing influence on our digital
society highlight the necessity for AI-based systems that are trustworthy,
accountable, and fair. Previous research emphasizes explainability as a means
to achieve these properties. In this paper, we argue that system explainability
cannot be achieved without accounting for the underlying hardware on which all
digital systems - including AI applications - are realized. As a remedy, we
propose the concept of explainable hardware, and focus on chips - which are
particularly relevant to current geopolitical discussions on (trustworthy)
semiconductors. Inspired by previous work on Explainable Artificial
Intelligence (XAI), we develop a hardware explainability framework by
identifying relevant stakeholders, unifying existing approaches form hardware
manufacturing under the notion of explainability, and discussing their
usefulness to satisfy different stakeholders' needs. Our work lays the
foundation for future work and structured debates on explainable hardware.
- Abstract(参考訳): AIの不透明さの高まりと、私たちのデジタル社会への影響力の高まりは、信頼できる、説明責任のある、公正なAIベースのシステムの必要性を強調している。
これまでの研究では、これらの性質を達成する手段として説明可能性を強調している。
本稿では、AIアプリケーションを含む全てのデジタルシステムが実現される基盤となるハードウェアを考慮しない限り、システム説明性は達成できないと論じる。
そこで我々は,(信頼性の高い)半導体に関する現在の地政学的議論に特に関係する,説明可能なハードウェアの概念を提案し,チップに焦点を当てる。
説明可能な人工知能(XAI)に関するこれまでの研究に触発されて、我々は、関係する利害関係者を特定し、説明可能性の概念の下で既存のアプローチを統一し、異なる利害関係者のニーズを満たすためのそれらの有用性を議論するハードウェア説明可能性フレームワークを開発した。
我々の研究は、将来の作業の基礎となり、説明可能なハードウェアに関する構造化された議論が行われます。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - A New Perspective on Evaluation Methods for Explainable Artificial
Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:15:44Z) - Revisiting the Performance-Explainability Trade-Off in Explainable
Artificial Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:07:40Z) - "Explanation" is Not a Technical Term: The Problem of Ambiguity in XAI [2.5899040911480173]
本稿では,これらの特徴を実用性評価に利用する方法について検討する。
我々は,機能的役割によって定義された説明の要件,理解しようとするユーザの知識状態,それらの生成に必要な情報の提供に焦点をあてる。
論文 参考訳(メタデータ) (2022-06-27T21:42:53Z) - Can Requirements Engineering Support Explainable Artificial
Intelligence? Towards a User-Centric Approach for Explainability Requirements [9.625088778011717]
我々は要求工学(RE)と説明可能なAI(XAI)の相乗効果について議論する。
我々は、XAIの分野における課題を強調し、これらの課題を緩和するためにREプラクティスがどのように役立つかに関するフレームワークと研究の方向性を提案します。
論文 参考訳(メタデータ) (2022-06-03T11:17:41Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - Directions for Explainable Knowledge-Enabled Systems [3.7250420821969827]
我々は、人工知能と密接に関連する分野における説明文献の調査を活用して、一連の説明型を生成する。
それぞれの型を定義し、このスタイルの説明の必要性を動機付けるサンプル質問を提供します。
この一連の説明型は、将来のシステム設計者が要求の生成と優先順位付けに役立ちます。
論文 参考訳(メタデータ) (2020-03-17T04:34:29Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。