論文の概要: Developing Future Human-Centered Smart Cities: Critical Analysis of
Smart City Security, Interpretability, and Ethical Challenges
- arxiv url: http://arxiv.org/abs/2012.09110v1
- Date: Mon, 14 Dec 2020 18:54:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 19:31:30.318177
- Title: Developing Future Human-Centered Smart Cities: Critical Analysis of
Smart City Security, Interpretability, and Ethical Challenges
- Title(参考訳): 未来の人間中心型スマートシティ:スマートシティのセキュリティ、解釈可能性、倫理的課題の批判的分析
- Authors: Kashif Ahmad, Majdi Maabreh, Mohamed Ghaly, Khalil Khan, Junaid Qadir,
Ala Al-Fuqaha
- Abstract要約: 主な課題は、セキュリティ、堅牢性、解釈可能性、人間中心のアプリケーションにおけるAIやMLのデプロイの成功に対する倫理的課題である。
グローバルには、より人間的で人間と互換性のある技術が求められている。
- 参考スコア(独自算出の注目度): 5.728709119947406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As we make tremendous advances in machine learning and artificial
intelligence technosciences, there is a renewed understanding in the AI
community that we must ensure that humans being are at the center of our
deliberations so that we don't end in technology-induced dystopias. As strongly
argued by Green in his book Smart Enough City, the incorporation of technology
in city environs does not automatically translate into prosperity, wellbeing,
urban livability, or social justice. There is a great need to deliberate on the
future of the cities worth living and designing. There are philosophical and
ethical questions involved along with various challenges that relate to the
security, safety, and interpretability of AI algorithms that will form the
technological bedrock of future cities. Several research institutes on human
centered AI have been established at top international universities. Globally
there are calls for technology to be made more humane and human-compatible. For
example, Stuart Russell has a book called Human Compatible AI. The Center for
Humane Technology advocates for regulators and technology companies to avoid
business models and product features that contribute to social problems such as
extremism, polarization, misinformation, and Internet addiction. In this paper,
we analyze and explore key challenges including security, robustness,
interpretability, and ethical challenges to a successful deployment of AI or ML
in human-centric applications, with a particular emphasis on the convergence of
these challenges. We provide a detailed review of existing literature on these
key challenges and analyze how one of these challenges may lead to others or
help in solving other challenges. The paper also advises on the current
limitations, pitfalls, and future directions of research in these domains, and
how it can fill the current gaps and lead to better solutions.
- Abstract(参考訳): 機械学習と人工知能テクノサイエンスの飛躍的な進歩によって、AIコミュニティに新たな理解が生まれ、人間が私たちの議論の中心にいることを確実にし、技術によって引き起こされるジストピアに終止符を打たないようにする必要があります。
グリーンが著書smart enough cityで強く主張しているように、都市環境における技術の導入は、自動的に繁栄、幸福、都市責任、社会正義へと変換されるわけではない。
生き、設計する価値のある都市の未来を慎重に考える必要がある。
哲学的、倫理的な問題と、将来の都市の技術的基盤を形成するAIアルゴリズムのセキュリティ、安全性、解釈可能性に関連する様々な課題がある。
トップクラスの国際大学には、人間中心AIに関するいくつかの研究機関が設立された。
グローバルには、より人間的で人間と互換性のある技術が求められている。
例えば、スチュアート・ラッセルはHuman Compatible AIという本を持っている。
center for humane technologyは規制当局やit企業に対して、過激主義、分極化、誤った情報、インターネット依存といった社会問題に寄与するビジネスモデルや製品機能を避けるよう推奨している。
本稿では、セキュリティ、堅牢性、解釈可能性、倫理的課題を含む重要な課題を分析し、これらの課題の収束に特に重点を置いて、AIやMLの人間中心のアプリケーションへの展開を成功させる。
私たちは、これらの重要な課題に関する既存の文献の詳細なレビューを提供し、これらの課題のうちの1つが他人にどのようにつながり、他の課題を解決するのに役立つかを分析します。
この論文は、これらの領域における研究の現在の限界、落とし穴、今後の方向性、そしてそれが現在のギャップを埋め、より良いソリューションへと導く方法についてもアドバイスしている。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Blockchain-based AI Methods for Managing Industrial IoT: Recent Developments, Integration Challenges and Opportunities [3.3030080038744947]
著者は、スマートIIoTにおいて、BCによるAIアプローチに関する包括的な調査を提示する。
AI、BC、スマートIoTアプリケーションに関する最先端の概要に注目します。
セキュリティ、安定性、スケーラビリティ、機密性など、さまざまな問題を強調します。
論文 参考訳(メタデータ) (2024-05-21T07:34:49Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - Artificial Intelligence for Real Sustainability? -- What is Artificial
Intelligence and Can it Help with the Sustainability Transformation? [0.0]
この記事では、AI技術を簡潔に説明し、分類し、理論化する。
そして、持続可能性に関する議論の観点から、その分析を政治的に文脈化する。
持続可能な社会へ進む上で、AIは小さな役割を担っている、と氏は主張する。
論文 参考訳(メタデータ) (2023-06-15T15:40:00Z) - ChatGPT, Large Language Technologies, and the Bumpy Road of Benefiting
Humanity [2.28438857884398]
AI技術がすべての人類に利益をもたらすという約束は、人類が世界的不平等を拡大し、実在の脅威を迫られる状況に直面していると想定されていることの、微妙な理解が欠如している限り、空白である。
我々はまた、単に投機的な質問とよく調査された質問を区別する、持続的で公平な方法で標準を開発する必要がある。
このような失敗は、私たちのAI技術の進歩が、倫理的および社会的意味をナビゲートする能力を上回る未来をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-04-21T22:53:45Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Needs and Artificial Intelligence [0.0]
我々は、ニーズとAIの関係を反映し、ニーズを意識したAIシステムの実現を求める。
我々は、未来のAIベースの社会技術システムを共同開発する上で、最も重要なギャップ、障壁、イネーブラー、ドライバについて論じる。
論文 参考訳(メタデータ) (2022-02-18T15:16:22Z) - Explainable Artificial Intelligence for Smart City Application: A Secure
and Trusted Platform [6.1938383008964495]
意思決定の解釈可能性に対する制御の喪失は、多くのデータ駆動自動化アプリケーションにとって重要な問題となっていると認識されている。
この章では、サイバーセキュリティにおける機械学習アプリケーションに関する包括的な研究を行い、この問題に対処するための説明責任の必要性を示している。
説明可能な人工知能(XAI)という新しい技術パラダイムを考えると、この章ではブラックボックスからホワイトボックスへの移行について論じる。
論文 参考訳(メタデータ) (2021-10-31T21:47:12Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。