論文の概要: Towards Responsible AI: A Design Space Exploration of Human-Centered
Artificial Intelligence User Interfaces to Investigate Fairness
- arxiv url: http://arxiv.org/abs/2206.00474v1
- Date: Wed, 1 Jun 2022 13:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 13:18:11.147481
- Title: Towards Responsible AI: A Design Space Exploration of Human-Centered
Artificial Intelligence User Interfaces to Investigate Fairness
- Title(参考訳): 責任あるAIに向けて: フェアネスを探求する人間中心の人工知能ユーザインタフェースの設計空間探索
- Authors: Yuri Nakao and Lorenzo Strappelli and Simone Stumpf and Aisha Naseer
and Daniele Regoli and Giulia Del Gamba
- Abstract要約: AIの公正性を調べるために、データサイエンティストとドメインエキスパートを支援するデザインスペース探索を提供する。
ローンのアプリケーションを例として、私たちは、ローンの担当者やデータサイエンティストと一連のワークショップを開催しました。
これらの要件をFairHILにインスタンス化し、このUIを他のユースケースに一般化する方法を説明した。
- 参考スコア(独自算出の注目度): 4.40401067183266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With Artificial intelligence (AI) to aid or automate decision-making
advancing rapidly, a particular concern is its fairness. In order to create
reliable, safe and trustworthy systems through human-centred artificial
intelligence (HCAI) design, recent efforts have produced user interfaces (UIs)
for AI experts to investigate the fairness of AI models. In this work, we
provide a design space exploration that supports not only data scientists but
also domain experts to investigate AI fairness. Using loan applications as an
example, we held a series of workshops with loan officers and data scientists
to elicit their requirements. We instantiated these requirements into FairHIL,
a UI to support human-in-the-loop fairness investigations, and describe how
this UI could be generalized to other use cases. We evaluated FairHIL through a
think-aloud user study. Our work contributes better designs to investigate an
AI model's fairness-and move closer towards responsible AI.
- Abstract(参考訳): 人工知能(AI)による意思決定の迅速化や自動化は、その公正さを特に懸念している。
人間中心の人工知能(HCAI)設計を通じて信頼性が高く安全で信頼性の高いシステムを構築するために、AI専門家がAIモデルの公正性を調べるためのユーザインターフェース(UI)を開発した。
本研究では、データ科学者だけでなく、ドメインの専門家も支援し、AIの公正性を調査するデザインスペース探索を行う。
ローンのアプリケーションを例として、私たちは、ローンの担当者やデータサイエンティストと一連のワークショップを開催しました。
これらの要件をFairHILにインスタンス化し、このUIを他のユースケースに一般化する方法を説明した。
fairhil を思考的ユーザ調査で評価した。
私たちの研究は、AIモデルの公平性を調査し、責任あるAIに近づくためのより良い設計に貢献します。
関連論文リスト
- AI Toolkit: Libraries and Essays for Exploring the Technology and Ethics of AI [0.0]
AITKプロジェクトにはPythonライブラリと計算エッセイ(Jupyterノートブック)の両方が含まれている。
これらのノートブックは、責任あるAIのテーマを中心としたさまざまな人文科学コースの複数の機関で試験されている。
パイロットスタディとユーザビリティテストの結果から、AIの理解を深める上で、AITKはナビゲートが容易で効果的であることが分かる。
論文 参考訳(メタデータ) (2025-01-17T22:08:52Z) - Human-AI Teaming Using Large Language Models: Boosting Brain-Computer Interfacing (BCI) and Brain Research [1.7265013728931]
我々は,Janusian設計原則の集合に基づいて,人間とAIのコラボレーションの概念を紹介する。
ChatBCIは、人間とAIのコラボレーションを可能にするPythonベースのツールボックスである。
我々のアプローチは、幅広い神経技術および神経科学のトピックに簡単に拡張できる。
論文 参考訳(メタデータ) (2024-12-30T20:26:03Z) - AI in the Cosmos [0.0]
情報源分類、スペクトルエネルギー分布モデリングなど、天体物理学におけるAI応用例を強調し、生成AIによる達成可能な進歩について議論する。
AIの使用は、バイアスやエラー、AIモデルの“ブラックボックス”といった課題を導入している。
これらの問題は、人間の専門知識とドメイン固有の知識をAIアプリケーションに統合するHG-AI(Human-Guided AI)の概念を通じて解決することができる。
論文 参考訳(メタデータ) (2024-12-13T12:30:11Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。