論文の概要: Imagining new futures beyond predictive systems in child welfare: A
qualitative study with impacted stakeholders
- arxiv url: http://arxiv.org/abs/2205.08928v1
- Date: Wed, 18 May 2022 13:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 13:58:27.821596
- Title: Imagining new futures beyond predictive systems in child welfare: A
qualitative study with impacted stakeholders
- Title(参考訳): 児童福祉における予測システムを超えた新しい未来を想像する:影響のある利害関係者との質的研究
- Authors: Logan Stapleton, Min Hun Lee, Diana Qing, Marya Wright, Alexandra
Chouldechova, Kenneth Holstein, Zhiwei Steven Wu, Haiyi Zhu
- Abstract要約: 児童福祉システムに影響を及ぼした利害関係者35名を対象に,7つのデザインワークショップを開催した。
対象者は,現在のPRMが児童福祉における既存の問題を持続的又は悪化させることを懸念した。
参加者は、データとデータ駆動ツールを使って、影響のあるコミュニティをより良くサポートする方法を提案した。
- 参考スコア(独自算出の注目度): 89.6319385008397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Child welfare agencies across the United States are turning to data-driven
predictive technologies (commonly called predictive analytics) which use
government administrative data to assist workers' decision-making. While some
prior work has explored impacted stakeholders' concerns with current uses of
data-driven predictive risk models (PRMs), less work has asked stakeholders
whether such tools ought to be used in the first place. In this work, we
conducted a set of seven design workshops with 35 stakeholders who have been
impacted by the child welfare system or who work in it to understand their
beliefs and concerns around PRMs, and to engage them in imagining new uses of
data and technologies in the child welfare system. We found that participants
worried current PRMs perpetuate or exacerbate existing problems in child
welfare. Participants suggested new ways to use data and data-driven tools to
better support impacted communities and suggested paths to mitigate possible
harms of these tools. Participants also suggested low-tech or no-tech
alternatives to PRMs to address problems in child welfare. Our study sheds
light on how researchers and designers can work in solidarity with impacted
communities, possibly to circumvent or oppose child welfare agencies.
- Abstract(参考訳): 米国の児童福祉機関は、労働者の意思決定を支援するために政府の行政データを利用するデータ駆動予測技術(一般的に予測分析と呼ばれる)に目を向けている。
データ駆動予測リスクモデル(prm: data-driven prediction risk model)の現在の使用に対するステークホルダの懸念には,いくつかの先行作業が影響している。
本研究では,児童福祉制度の影響を受けている,あるいはprmに関する信念や関心事を理解し,児童福祉制度におけるデータや技術の新たな活用を想像するために,35人の利害関係者による7つのデザインワークショップを実施した。
対象者は,現在のPRMが児童福祉における既存の問題を持続的又は悪化させることを懸念した。
参加者は、影響のあるコミュニティをより良く支援するためにデータとデータ駆動ツールを使用する新しい方法を提案し、これらのツールの害を軽減するための道を提案しました。
参加者はまた、児童福祉の問題に対処するために、PRMの低技術または非技術代替案も提案した。
私たちの研究は、児童福祉機関を回避したり、反対したりする可能性のある、影響のあるコミュニティと研究者やデザイナーが連携して働く方法に光を当てています。
関連論文リスト
- LLM-based Interaction for Content Generation: A Case Study on the
Perception of Employees in an IT department [85.1523466539595]
本稿では,IT企業の従業員が生成ツールを使用する意図を明らかにするためのアンケート調査を行う。
以上の結果から, 生成ツールの比較的平均的な受容性が示唆されるが, ツールが有用であると認識されるほど, 意図が高くなることが示唆された。
分析の結果, 生産ツールの利用頻度は, 従業員が作業の文脈でこれらのツールをどのように認識しているかを理解する上で重要な要因である可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-18T15:35:43Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Mutual Information Scoring: Increasing Interpretability in Categorical
Clustering Tasks with Applications to Child Welfare Data [6.651036327739043]
アメリカの里親制度の若者は、同僚よりも多くの否定的な人生の結果に直面する可能性がかなり高い。
これらの若さに関するデータは、より良い生活への道筋を見極めるのに役立つ洞察を提供する可能性がある。
本研究は、これらのデータを用いて、データバイアスと、追跡するシステムと若者の両方に関する洞察を提供するための、新しい規範的アプローチを提案する。
論文 参考訳(メタデータ) (2022-08-03T01:11:09Z) - A Conceptual Framework for Using Machine Learning to Support Child
Welfare Decisions [5.1760162371179]
本稿では、児童福祉決定を支援する機械学習の概念的枠組みについて述べる。
倫理的考慮、ステークホルダーの関与、共通の落とし穴の回避が、フレームワークの影響と成功を支えている。
論文 参考訳(メタデータ) (2022-07-12T21:42:22Z) - Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support [37.03030554731032]
児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
論文 参考訳(メタデータ) (2022-04-05T16:10:49Z) - Proposing an Interactive Audit Pipeline for Visual Privacy Research [0.0]
我々は、システムにおけるバイアスと公平性の問題を発見し、責任ある人間対ループの必要性を主張し、有害な社会的影響を持つ研究課題を探求する必要性を反映するために公正性を利用することについて議論する。
私たちの目標は、視覚的プライバシとバイアスの問題に対して、機械学習パイプラインの体系的な分析を提供することです。
論文 参考訳(メタデータ) (2021-11-07T01:51:43Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Robots in the Danger Zone: Exploring Public Perception through
Engagement [4.051559940977775]
ロボットと人工知能(RAI)に対する大衆の認識は、受容、取り込み、政府の規制、研究資金において重要である。
近年の研究では、一般大衆のRAIに対する理解は否定的あるいは不正確であることが示されている。
個人での公的なエンゲージメント活動における高いスループットの最初のイテレーションについて説明する。
論文 参考訳(メタデータ) (2020-04-01T20:10:53Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。