論文の概要: Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support
- arxiv url: http://arxiv.org/abs/2204.02310v1
- Date: Tue, 5 Apr 2022 16:10:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 14:15:30.310984
- Title: Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support
- Title(参考訳): 児童福祉における人間-AI連携の改善 : アルゴリズム決定支援のための労働者の実践・課題・欲求の理解
- Authors: Anna Kawakami, Venkatesh Sivaraman, Hao-Fei Cheng, Logan Stapleton,
Yanghuidi Cheng, Diana Qing, Adam Perer, Zhiwei Steven Wu, Haiyi Zhu, Kenneth
Holstein
- Abstract要約: 児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
- 参考スコア(独自算出の注目度): 37.03030554731032
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI-based decision support tools (ADS) are increasingly used to augment human
decision-making in high-stakes, social contexts. As public sector agencies
begin to adopt ADS, it is critical that we understand workers' experiences with
these systems in practice. In this paper, we present findings from a series of
interviews and contextual inquiries at a child welfare agency, to understand
how they currently make AI-assisted child maltreatment screening decisions.
Overall, we observe how workers' reliance upon the ADS is guided by (1) their
knowledge of rich, contextual information beyond what the AI model captures,
(2) their beliefs about the ADS's capabilities and limitations relative to
their own, (3) organizational pressures and incentives around the use of the
ADS, and (4) awareness of misalignments between algorithmic predictions and
their own decision-making objectives. Drawing upon these findings, we discuss
design implications towards supporting more effective human-AI decision-making.
- Abstract(参考訳): AIベースの意思決定支援ツール(ADS)は、ハイテイクな社会的文脈において、人間の意思決定を強化するためにますます利用されている。
公共セクターがADSを採用し始めるにつれ、実際にこれらのシステムにおける労働者の経験を理解することが重要である。
本稿では,児童福祉機関における一連の面接と状況調査から,現在ai支援児童虐待スクリーニングの意思決定を行っているかを明らかにする。
全体として,(1)AIモデルが捉える以上の豊かな文脈情報,(2)ADSの能力と限界に対する信念,(3)ADSの使用に関する組織的プレッシャーとインセンティブ,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかが観察される。
これらの知見をもとに,より効果的な人間-AI意思決定を支援するための設計上の意義について考察する。
関連論文リスト
- Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Does More Advice Help? The Effects of Second Opinions in AI-Assisted
Decision Making [45.20615051119694]
我々は、AIによる意思決定における意思決定者の行動とパフォーマンスに第2の意見がどう影響するかを考察する。
AIモデルの推奨事項と第2の意見が常に一致している場合、意思決定者はAIに対する過度な信頼を減らすことができる。
もし意思決定者が、いつ仲間の第二の意見を求めるかを決めることができるならば、彼らの第二の意見の活発な勧誘は、AIに対する過度な信頼を緩和する可能性があることに気付く。
論文 参考訳(メタデータ) (2024-01-13T12:19:01Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Intelligent Decision Assistance Versus Automated Decision-Making:
Enhancing Knowledge Work Through Explainable Artificial Intelligence [0.0]
我々は,新たなDSSクラス,すなわち知能決定支援(IDA)を提案する。
IDAは、自動意思決定を通じて知識労働者に影響を与えることなく、知識労働者をサポートする。
具体的には、具体的なAIレコメンデーションを保ちながら、説明可能なAI(XAI)の技術を使用することを提案する。
論文 参考訳(メタデータ) (2021-09-28T15:57:21Z) - Perceptions of Fairness and Trustworthiness Based on Explanations in
Human vs. Automated Decision-Making [0.0]
自動意思決定システム(ADS)は、多くのハイテイク領域で広く普及している。
我々は200人の参加者とともにオンライン調査を行い、ADSに対する公正性と信頼性に対する人々の認識を調べる。
ADSは人間の意思決定者よりも公平だと考える人が多い。
論文 参考訳(メタデータ) (2021-09-13T09:14:15Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。