論文の概要: Explainable Artificial Intelligence for Smart City Application: A Secure
and Trusted Platform
- arxiv url: http://arxiv.org/abs/2111.00601v1
- Date: Sun, 31 Oct 2021 21:47:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 05:05:05.123383
- Title: Explainable Artificial Intelligence for Smart City Application: A Secure
and Trusted Platform
- Title(参考訳): スマートシティアプリケーションのための説明可能な人工知能: セキュアで信頼できるプラットフォーム
- Authors: M. Humayn Kabir, Khondokar Fida Hasan, Mohammad Kamrul Hasan, Keyvan
Ansari
- Abstract要約: 意思決定の解釈可能性に対する制御の喪失は、多くのデータ駆動自動化アプリケーションにとって重要な問題となっていると認識されている。
この章では、サイバーセキュリティにおける機械学習アプリケーションに関する包括的な研究を行い、この問題に対処するための説明責任の必要性を示している。
説明可能な人工知能(XAI)という新しい技術パラダイムを考えると、この章ではブラックボックスからホワイトボックスへの移行について論じる。
- 参考スコア(独自算出の注目度): 6.1938383008964495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) is one of the disruptive technologies that is
shaping the future. It has growing applications for data-driven decisions in
major smart city solutions, including transportation, education, healthcare,
public governance, and power systems. At the same time, it is gaining
popularity in protecting critical cyber infrastructure from cyber threats,
attacks, damages, or unauthorized access. However, one of the significant
issues of those traditional AI technologies (e.g., deep learning) is that the
rapid progress in complexity and sophistication propelled and turned out to be
uninterpretable black boxes. On many occasions, it is very challenging to
understand the decision and bias to control and trust systems' unexpected or
seemingly unpredictable outputs. It is acknowledged that the loss of control
over interpretability of decision-making becomes a critical issue for many
data-driven automated applications. But how may it affect the system's security
and trustworthiness? This chapter conducts a comprehensive study of machine
learning applications in cybersecurity to indicate the need for explainability
to address this question. While doing that, this chapter first discusses the
black-box problems of AI technologies for Cybersecurity applications in smart
city-based solutions. Later, considering the new technological paradigm,
Explainable Artificial Intelligence (XAI), this chapter discusses the
transition from black-box to white-box. This chapter also discusses the
transition requirements concerning the interpretability, transparency,
understandability, and Explainability of AI-based technologies in applying
different autonomous systems in smart cities. Finally, it has presented some
commercial XAI platforms that offer explainability over traditional AI
technologies before presenting future challenges and opportunities.
- Abstract(参考訳): 人工知能(AI)は、未来を形作る破壊的な技術の1つである。
交通、教育、医療、公共ガバナンス、電力システムなど、主要なスマートシティソリューションにおけるデータ駆動決定の応用が増えている。
同時に、サイバーの脅威、攻撃、損害、不正アクセスから重要なサイバーインフラストラクチャを保護することで人気を集めている。
しかし、これらの従来のai技術(例えばディープラーニング)の重要な問題の一つは、複雑さと高度化の急速な進歩が、解釈不能なブラックボックスになったことだ。
多くの場合、システムの予期せぬ、あるいは予測不能なアウトプットを制御し、信頼する決定とバイアスを理解することは非常に難しい。
意思決定の解釈可能性に対する制御の喪失は、多くのデータ駆動自動化アプリケーションにとって重要な問題となっている。
しかし、システムのセキュリティと信頼性にどのように影響するか?
この章では、サイバーセキュリティにおける機械学習の応用に関する包括的な研究を行い、この問題に対処するための説明可能性の必要性を示す。
この章ではまず、スマートシティベースのソリューションにおけるサイバーセキュリティアプリケーションのためのAI技術のブラックボックス問題について論じる。
その後、新しい技術パラダイムである説明可能な人工知能(XAI)を考えると、この章ではブラックボックスからホワイトボックスへの移行について論じる。
この章では、スマートシティにおける異なる自律システムの適用におけるaiベースの技術の解釈可能性、透明性、理解可能性、説明可能性に関する移行要件についても論じる。
最後に、将来の課題と機会を示す前に、従来のAI技術よりも説明可能性を提供する商用XAIプラットフォームを紹介した。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - A Survey on Explainable Artificial Intelligence for Cybersecurity [14.648580959079787]
説明可能な人工知能(XAI)は、決定と行動に対して明確かつ解釈可能な説明を提供する機械学習モデルを作成することを目的としている。
ネットワークサイバーセキュリティの分野では、XAIは、サイバー脅威の振る舞いをよりよく理解することで、ネットワークセキュリティへのアプローチ方法に革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-03-07T22:54:18Z) - Explainable Artificial Intelligence and Cybersecurity: A Systematic
Literature Review [0.799536002595393]
XAIは、ユーザーと開発者にとってAIアルゴリズムの操作をより解釈可能にすることを目的としている。
本研究は,サイバーセキュリティに適用されたXAI研究シナリオについて検討する。
論文 参考訳(メタデータ) (2023-02-27T17:47:56Z) - It is not "accuracy vs. explainability" -- we need both for trustworthy
AI systems [0.0]
私たちは、AI技術が医療、ビジネス、交通、日常生活の多くの側面に影響を与えつつある、AI経済と社会の出現を目撃しています。
しかし、AIシステムはエラーを発生させ、バイアスを示し、データのノイズに敏感になり、しばしば技術的および司法的透明性が欠如し、その採用における信頼と課題が減少する可能性がある。
これらの最近の欠点や懸念は、科学的に記録されているだけでなく、自動運転車による事故、医療の偏見、有色人種のための雇用と顔認識システムなど、一般的な報道でも報告されている。
論文 参考訳(メタデータ) (2022-12-16T23:33:10Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Developing Future Human-Centered Smart Cities: Critical Analysis of
Smart City Security, Interpretability, and Ethical Challenges [5.728709119947406]
主な課題は、セキュリティ、堅牢性、解釈可能性、人間中心のアプリケーションにおけるAIやMLのデプロイの成功に対する倫理的課題である。
グローバルには、より人間的で人間と互換性のある技術が求められている。
論文 参考訳(メタデータ) (2020-12-14T18:54:05Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - Explainable Goal-Driven Agents and Robots -- A Comprehensive Review [13.94373363822037]
論文は、目標駆動型知的エージェントとロボットの説明可能なアプローチをレビューする。
エージェントの知覚機能や認知的推論を説明・伝達する技術に重点を置いている。
効果的な目標駆動型説明可能なエージェントとロボットの実現に向けたロードマップを提案する。
論文 参考訳(メタデータ) (2020-04-21T01:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。