論文の概要: Towards Responsible AI: A Design Space Exploration of Human-Centered
Artificial Intelligence User Interfaces to Investigate Fairness
- arxiv url: http://arxiv.org/abs/2206.00474v1
- Date: Wed, 1 Jun 2022 13:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 13:18:11.147481
- Title: Towards Responsible AI: A Design Space Exploration of Human-Centered
Artificial Intelligence User Interfaces to Investigate Fairness
- Title(参考訳): 責任あるAIに向けて: フェアネスを探求する人間中心の人工知能ユーザインタフェースの設計空間探索
- Authors: Yuri Nakao and Lorenzo Strappelli and Simone Stumpf and Aisha Naseer
and Daniele Regoli and Giulia Del Gamba
- Abstract要約: AIの公正性を調べるために、データサイエンティストとドメインエキスパートを支援するデザインスペース探索を提供する。
ローンのアプリケーションを例として、私たちは、ローンの担当者やデータサイエンティストと一連のワークショップを開催しました。
これらの要件をFairHILにインスタンス化し、このUIを他のユースケースに一般化する方法を説明した。
- 参考スコア(独自算出の注目度): 4.40401067183266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With Artificial intelligence (AI) to aid or automate decision-making
advancing rapidly, a particular concern is its fairness. In order to create
reliable, safe and trustworthy systems through human-centred artificial
intelligence (HCAI) design, recent efforts have produced user interfaces (UIs)
for AI experts to investigate the fairness of AI models. In this work, we
provide a design space exploration that supports not only data scientists but
also domain experts to investigate AI fairness. Using loan applications as an
example, we held a series of workshops with loan officers and data scientists
to elicit their requirements. We instantiated these requirements into FairHIL,
a UI to support human-in-the-loop fairness investigations, and describe how
this UI could be generalized to other use cases. We evaluated FairHIL through a
think-aloud user study. Our work contributes better designs to investigate an
AI model's fairness-and move closer towards responsible AI.
- Abstract(参考訳): 人工知能(AI)による意思決定の迅速化や自動化は、その公正さを特に懸念している。
人間中心の人工知能(HCAI)設計を通じて信頼性が高く安全で信頼性の高いシステムを構築するために、AI専門家がAIモデルの公正性を調べるためのユーザインターフェース(UI)を開発した。
本研究では、データ科学者だけでなく、ドメインの専門家も支援し、AIの公正性を調査するデザインスペース探索を行う。
ローンのアプリケーションを例として、私たちは、ローンの担当者やデータサイエンティストと一連のワークショップを開催しました。
これらの要件をFairHILにインスタンス化し、このUIを他のユースケースに一般化する方法を説明した。
fairhil を思考的ユーザ調査で評価した。
私たちの研究は、AIモデルの公平性を調査し、責任あるAIに近づくためのより良い設計に貢献します。
関連論文リスト
- The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z) - AI Usage Cards: Responsibly Reporting AI-generated Content [25.848910414962337]
ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
論文 参考訳(メタデータ) (2023-02-16T08:41:31Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。