論文の概要: Mediating Community-AI Interaction through Situated Explanation: The
Case of AI-Led Moderation
- arxiv url: http://arxiv.org/abs/2008.08202v1
- Date: Wed, 19 Aug 2020 00:13:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 12:37:05.223832
- Title: Mediating Community-AI Interaction through Situated Explanation: The
Case of AI-Led Moderation
- Title(参考訳): 特定説明によるコミュニティAIインタラクションの仲介--AI主導のモデレーションを事例として
- Authors: Yubo Kou and Xinning Gui
- Abstract要約: 私たちは、コミュニティの共有価値、規範、知識、実践における説明の位置づけを理論化します。
次に、AI主導のモデレーションのケーススタディを示し、コミュニティメンバーがAI主導の意思決定の説明をまとめて開発する。
- 参考スコア(独自算出の注目度): 32.50902508512016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) has become prevalent in our everyday
technologies and impacts both individuals and communities. The explainable AI
(XAI) scholarship has explored the philosophical nature of explanation and
technical explanations, which are usually driven by experts in lab settings and
can be challenging for laypersons to understand. In addition, existing XAI
research tends to focus on the individual level. Little is known about how
people understand and explain AI-led decisions in the community context.
Drawing from XAI and activity theory, a foundational HCI theory, we theorize
how explanation is situated in a community's shared values, norms, knowledge,
and practices, and how situated explanation mediates community-AI interaction.
We then present a case study of AI-led moderation, where community members
collectively develop explanations of AI-led decisions, most of which are
automated punishments. Lastly, we discuss the implications of this framework at
the intersection of CSCW, HCI, and XAI.
- Abstract(参考訳): 人工知能(AI)は私たちの日常技術で普及し、個人とコミュニティの両方に影響を与える。
説明可能なAI(XAI)奨学金は、説明と技術的な説明の哲学的な性質を探求してきた。
さらに、既存のXAI研究は個々のレベルに焦点を当てる傾向にある。
人々がAIによる意思決定をコミュニティの文脈で理解し、説明する方法については、ほとんど知られていない。
基本的HCI理論であるXAIとアクティビティ理論を参考に,コミュニティの共有価値,規範,知識,実践における説明の位置づけと,コミュニティとAIの相互作用をいかに仲介するかを論じる。
次に、AI主導のモデレーションのケーススタディを示し、コミュニティメンバーがAI主導の意思決定の説明をまとめて作成する。
最後に,CSCW,HCI,XAIの交差点において,この枠組みがもたらす意味について論じる。
関連論文リスト
- Investigating the Role of Explainability and AI Literacy in User Compliance [2.8623940003518156]
XAIの導入により,ユーザのコンプライアンスが向上する一方で,AIリテラシーの影響も受けていることがわかった。
また,AIリテラシーXAIとユーザのコンプライアンスの関係は,ユーザのメンタルモデルが介在していることも確認した。
論文 参考訳(メタデータ) (2024-06-18T14:28:12Z) - Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain [0.7770029179741429]
説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では,機能ベースから人間中心のアプローチまで,XAI方法論の進化について考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
論文 参考訳(メタデータ) (2024-02-07T14:09:11Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - On Two XAI Cultures: A Case Study of Non-technical Explanations in
Deployed AI System [3.4918511133757977]
XAIの多くは、実際にはデプロイされたAIシステムの主要なオーディエンスであり、主要な利害関係者である非AI専門家には理解できない。
我々は,非技術者を対象としたXAI手法の開発が重要であることを主張する。
そして、AIの専門家が非技術ステークホルダーにAI決定の非技術的な説明を提供した、実生活のケーススタディを提示します。
論文 参考訳(メタデータ) (2021-12-02T07:02:27Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。