論文の概要: Towards Feminist Intersectional XAI: From Explainability to
Response-Ability
- arxiv url: http://arxiv.org/abs/2305.03375v1
- Date: Fri, 5 May 2023 09:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 14:38:52.998835
- Title: Towards Feminist Intersectional XAI: From Explainability to
Response-Ability
- Title(参考訳): フェミニスト間XAIに向けて:説明可能性から反応能力へ
- Authors: Goda Klumbyte, Hannah Piehl, Claude Draude
- Abstract要約: HCXAIの研究とデザインにおけるフェミニストの交差点の視点はどんなものかを問うものだ。
フェミニストの観点からの説明可能性には、レスポンシビリティの育成が含まれることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper follows calls for critical approaches to computing and
conceptualisations of intersectional, feminist, decolonial HCI and AI design
and asks what a feminist intersectional perspective in HCXAI research and
design might look like. Sketching out initial research directions and
implications for explainable AI design, it suggests that explainability from a
feminist perspective would include the fostering of response-ability - the
capacity to critically evaluate and respond to AI systems - and would centre
marginalised perspectives.
- Abstract(参考訳): 本稿では,交叉型,フェミニスト型,デコロニア型hci,およびai設計のコンピューティングと概念化に対する批判的アプローチを求め,hcxai研究と設計におけるフェミニスト交叉的視点がどのようなものになるのかを問う。
フェミニストの視点からの説明可能性には、AIシステムに対して批判的に評価し、反応する能力である応答能力の育成と、その中心となる限界的な視点が含まれる、と同社は示唆している。
関連論文リスト
- Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Position: An Inner Interpretability Framework for AI Inspired by Lessons from Cognitive Neuroscience [4.524832437237367]
内解釈可能性(Inner Interpretability)は、AIシステムの内部メカニズムを明らかにするための、有望な分野である。
近年の批判は、AIの幅広い目標を前進させるための有用性に疑問を呈する問題を提起している。
ここでは、関係する関係を描き、フィールド間で生産的に伝達できる教訓を強調します。
論文 参考訳(メタデータ) (2024-06-03T14:16:56Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Unmasking the Shadows of AI: Investigating Deceptive Capabilities in Large Language Models [0.0]
この研究は、大規模言語モデル(LLM)の騙し行動に集中して、AIの騙しの複雑な風景を批判的にナビゲートする。
私の目標は、この問題を解明し、それを取り巻く談話を調べ、その分類と混乱を掘り下げることです。
論文 参考訳(メタデータ) (2024-02-07T00:21:46Z) - Caring Trouble and Musical AI: Considerations towards a Feminist Musical
AI [1.6921396880325779]
筆者のHolly Herndonのように生音声を生成するディープニューラルネットワークであるHolly+の例を批判的に検証する。
仮説的フェミニズムとケア倫理の理論的懸念と考察から、我々はホリー+の周辺で振動する構造、枠組み、仮定を慎重に悩ます。
論文 参考訳(メタデータ) (2023-11-14T12:35:17Z) - Explaining the ghosts: Feminist intersectional XAI and cartography as
methods to account for invisible labour [0.0]
ラベル付けや保守作業を含む目に見えない労働は、現代のAIシステムにとって不可欠な部分です。
これは、説明可能なAI(XAI)設計、特にフェミニストの交差点XAIによって実現可能であることを示唆する。
論文 参考訳(メタデータ) (2023-05-05T09:10:39Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。