論文の概要: Expanding Explainability: Towards Social Transparency in AI systems
- arxiv url: http://arxiv.org/abs/2101.04719v1
- Date: Tue, 12 Jan 2021 19:44:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:39:27.399590
- Title: Expanding Explainability: Towards Social Transparency in AI systems
- Title(参考訳): 説明可能性の拡大:AIシステムにおける社会的透明性を目指して
- Authors: Upol Ehsan, Q. Vera Liao, Michael Muller, Mark O. Riedl, Justin D.
Weisz
- Abstract要約: 社会透明性(英: Social Transparency、ST)とは、社会的な組織的文脈をAIによる意思決定の説明に取り入れた社会工学的な視点である。
XAIの設計空間を拡大することで、人間中心XAIの議論に貢献しています。
- 参考スコア(独自算出の注目度): 20.41177660318785
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As AI-powered systems increasingly mediate consequential decision-making,
their explainability is critical for end-users to take informed and accountable
actions. Explanations in human-human interactions are socially-situated. AI
systems are often socio-organizationally embedded. However, Explainable AI
(XAI) approaches have been predominantly algorithm-centered. We take a
developmental step towards socially-situated XAI by introducing and exploring
Social Transparency (ST), a sociotechnically informed perspective that
incorporates the socio-organizational context into explaining AI-mediated
decision-making. To explore ST conceptually, we conducted interviews with 29 AI
users and practitioners grounded in a speculative design scenario. We suggested
constitutive design elements of ST and developed a conceptual framework to
unpack ST's effect and implications at the technical, decision-making, and
organizational level. The framework showcases how ST can potentially calibrate
trust in AI, improve decision-making, facilitate organizational collective
actions, and cultivate holistic explainability. Our work contributes to the
discourse of Human-Centered XAI by expanding the design space of XAI.
- Abstract(参考訳): AIを利用したシステムは、連続的な意思決定を仲介する傾向にあるため、エンドユーザーが情報と説明責任を負う行動を取ることが重要である。
人間と人間の相互作用の説明は社会的に構成されている。
AIシステムはしばしば社会組織に組み込まれる。
しかし、説明可能なAI(XAI)アプローチは主にアルゴリズム中心である。
我々は、社会的な組織的文脈をAIによる意思決定の説明に取り入れた社会的透明性(Social Transparency, ST)を導入し、探求することで、社会的なXAIへの発展的な一歩を踏み出した。
stを概念的に探究するため,我々は投機的設計シナリオに基づく29人のaiユーザと実践者とのインタビューを行った。
我々はSTの構成的設計要素を提案し、STの効果と含意を技術、意思決定、組織レベルで解き放つ概念的枠組みを開発した。
このフレームワークは、STがAIに対する信頼を校正し、意思決定を改善し、組織的な集団行動を促進し、全体的説明責任を育む方法について説明している。
本研究は, XAI の設計空間を拡大し,人間中心型 XAI の言説に寄与する。
関連論文リスト
- Incentive Compatibility for AI Alignment in Sociotechnical Systems:
Positions and Prospects [11.086872298007835]
既存の方法論は主に技術的側面に焦点を当てており、しばしばAIシステムの複雑な社会技術的性質を無視している。
Incentive Compatibility Sociotechnical Alignment Problem (ICSAP)
ICを実現するための古典的なゲーム問題として,機構設計,契約理論,ベイズ的説得の3つを論じ,ICSAP解決の視点,可能性,課題について論じる。
論文 参考訳(メタデータ) (2024-02-20T10:52:57Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - Mediating Community-AI Interaction through Situated Explanation: The
Case of AI-Led Moderation [32.50902508512016]
私たちは、コミュニティの共有価値、規範、知識、実践における説明の位置づけを理論化します。
次に、AI主導のモデレーションのケーススタディを示し、コミュニティメンバーがAI主導の意思決定の説明をまとめて開発する。
論文 参考訳(メタデータ) (2020-08-19T00:13:12Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Human-centered Explainable AI: Towards a Reflective Sociotechnical
Approach [18.14698948294366]
我々は、人間を技術設計の中心に置くアプローチとして、人間中心の説明可能なAI(HCXAI)を紹介します。
それは、価値の相互作用、対人的ダイナミクス、そしてAIシステムの社会的に位置する性質を考慮し、人間の「誰」が誰であるかを包括的に理解する。
論文 参考訳(メタデータ) (2020-02-04T02:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。