論文の概要: Contestable Camera Cars: A Speculative Design Exploration of Public AI
That Is Open and Responsive to Dispute
- arxiv url: http://arxiv.org/abs/2302.04603v1
- Date: Thu, 9 Feb 2023 12:38:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 15:52:47.302691
- Title: Contestable Camera Cars: A Speculative Design Exploration of Public AI
That Is Open and Responsive to Dispute
- Title(参考訳): Contestable Camera Cars: オープンで論争に責任のある公開AIの投機的設計
- Authors: Kars Alfrink, Ianus Keller, Neelke Doorn, Gerd Kortuem
- Abstract要約: 競争性は、システムが紛争に反応するようにし、自律性と尊厳に対する人権を尊重する手段である。
カメラカーの例として,公立都市型AIシステムの設計について検討する。
- 参考スコア(独自算出の注目度): 0.6021787236982657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local governments increasingly use artificial intelligence (AI) for automated
decision-making. Contestability, making systems responsive to dispute, is a way
to ensure they respect human rights to autonomy and dignity. We investigate the
design of public urban AI systems for contestability through the example of
camera cars: human-driven vehicles equipped with image sensors. Applying a
provisional framework for contestable AI, we use speculative design to create a
concept video of a contestable camera car. Using this concept video, we then
conduct semi-structured interviews with 17 civil servants who work with AI
employed by a large northwestern European city. The resulting data is analyzed
using reflexive thematic analysis to identify the main challenges facing the
implementation of contestability in public AI. We describe how civic
participation faces issues of representation, public AI systems should
integrate with existing democratic practices, and cities must expand capacities
for responsible AI development and operation.
- Abstract(参考訳): 地方自治体は自動意思決定に人工知能(AI)をますます利用している。
競争性は、システムが紛争に反応するようにし、自律性と尊厳に対する人権を尊重する手段である。
カメラカーの例として, 画像センサを搭載した人間駆動型自動車を用いた都市AIシステムの設計について検討する。
競合可能なAIのための仮フレームワークを適用することで、投機的デザインを使用して、競合可能なカメラカーのコンセプトビデオを作成します。
このコンセプトビデオを使って、ヨーロッパ北西部の大都市で採用されているAIを扱う17人の公務員と、半構造化されたインタビューを行う。
結果のデータは反射論的解析を用いて分析され、公的なAIにおける競合性の実装に直面する主な課題を特定する。
市民参加がいかに代表的問題に直面しているかを説明し、公共AIシステムは既存の民主的慣行と統合されるべきであり、都市はAI開発と運用の責任を負う能力を拡張する必要がある。
関連論文リスト
- A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Responsible AI: A Design Space Exploration of Human-Centered
Artificial Intelligence User Interfaces to Investigate Fairness [4.40401067183266]
AIの公正性を調べるために、データサイエンティストとドメインエキスパートを支援するデザインスペース探索を提供する。
ローンのアプリケーションを例として、私たちは、ローンの担当者やデータサイエンティストと一連のワークショップを開催しました。
これらの要件をFairHILにインスタンス化し、このUIを他のユースケースに一般化する方法を説明した。
論文 参考訳(メタデータ) (2022-06-01T13:08:37Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Explainable Artificial Intelligence for Autonomous Driving: A
Comprehensive Overview and Field Guide for Future Research Directions [11.259749697686697]
この研究は、自動運転車のための説明可能な人工知能(XAI)アプローチの開発に包括的な光を当てている。
まず、最先端の自動運転車産業における説明について、現状のギャップを概観する。
第2に,本分野における説明書・説明書の分類について述べる。
第3に,エンド・ツー・エンドの自動運転システムのアーキテクチャの枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-21T22:51:37Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - AI in Smart Cities: Challenges and approaches to enable road vehicle
automation and smart traffic control [56.73750387509709]
SCCは、活動やユーティリティの自動化と最適化による効率向上を目指すデータ中心の社会を構想しています。
本稿では、SCCにおけるAIの視点を説明し、道路車両の自動化とスマート交通制御を可能にする交通で使用されるAIベースの技術の概要を示す。
論文 参考訳(メタデータ) (2021-04-07T14:31:08Z) - Toward a Rational and Ethical Sociotechnical System of Autonomous
Vehicles: A Novel Application of Multi-Criteria Decision Analysis [0.0]
人工知能(AI)と自律システムの拡張は、膨大な社会的利益を生み出す可能性を示している。
知的エージェントのシステム開発を可能にするために、関連する社会的懸念に対処する必要がある。
論文 参考訳(メタデータ) (2021-02-04T23:52:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。