論文の概要: Understanding Frontline Workers' and Unhoused Individuals' Perspectives
on AI Used in Homeless Services
- arxiv url: http://arxiv.org/abs/2303.09743v1
- Date: Fri, 17 Mar 2023 02:46:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:50:47.572581
- Title: Understanding Frontline Workers' and Unhoused Individuals' Perspectives
on AI Used in Homeless Services
- Title(参考訳): ホームレスサービスにおける最前線労働者と非収容者のAI観の理解
- Authors: Tzu-Sheng Kuo, Hong Shen, Jisoo Geum, Nev Jones, Jason I. Hong, Haiyi
Zhu, Kenneth Holstein
- Abstract要約: 我々は、少ない住宅資源を優先するデプロイされたADSにおける利害関係者の視点を理解することを目的としている。
私たちは、利害関係者のフィードバックとデザインのアイデアを引き出すために、AIライフサイクルのコミックボードを採用しました。
我々の研究結果は、利害関係者が、AIの知識がなくても、AIシステムの設計と展開に対して、具体的にかつ重要なフィードバックを提供できることを示している。
- 参考スコア(独自算出の注目度): 18.770231762085974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen growing adoption of AI-based decision-support systems
(ADS) in homeless services, yet we know little about stakeholder desires and
concerns surrounding their use. In this work, we aim to understand impacted
stakeholders' perspectives on a deployed ADS that prioritizes scarce housing
resources. We employed AI lifecycle comicboarding, an adapted version of the
comicboarding method, to elicit stakeholder feedback and design ideas across
various components of an AI system's design. We elicited feedback from county
workers who operate the ADS daily, service providers whose work is directly
impacted by the ADS, and unhoused individuals in the region. Our participants
shared concerns and design suggestions around the AI system's overall
objective, specific model design choices, dataset selection, and use in
deployment. Our findings demonstrate that stakeholders, even without AI
knowledge, can provide specific and critical feedback on an AI system's design
and deployment, if empowered to do so.
- Abstract(参考訳): 近年、ホームレスサービスにおけるaiベースの意思決定支援システム(ads)の採用が増加しているが、ステークホルダーの欲求や利用に関する懸念についてはほとんどわかっていない。
本研究では,少ない住宅資源を優先するデプロイされたADSにおける利害関係者の視点を理解することを目的とする。
提案手法の適応バージョンであるaiライフサイクルcomicboardingを用いて,aiシステム設計のさまざまなコンポーネントに対してステークホルダーからのフィードバックと設計アイデアを導き出した。
我々は、ADSを毎日運営する郡労働者、ADSから直接影響を受けるサービス提供者、地域の未収容者からのフィードバックを求めた。
参加者は、AIシステムの全体的な目的、特定のモデル設計の選択、データセットの選択、デプロイメントにおける使用に関する懸念と設計提案を共有しました。
我々の調査結果は、AIの知識がなくてもステークホルダーが、AIシステムの設計とデプロイメントに関する具体的な、重要なフィードバックを提供できることを示している。
関連論文リスト
- Interactive Example-based Explanations to Improve Health Professionals' Onboarding with AI for Human-AI Collaborative Decision Making [2.964175945467257]
成長する研究は、人間とAIの協調的な意思決定において、ユーザの意思決定フェーズにおけるAI説明の使用について調査している。
以前の研究では、間違ったAI出力に対する過信の問題が見つかった。
医療従事者のAIによるオフボード化を改善するために,インタラクティブな例に基づく説明を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:20:09Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - The AI-DEC: A Card-based Design Method for User-centered AI Explanations [20.658833770179903]
我々は,AIの説明の4次元を定義する設計手法であるAI-DECを開発した。
我々は、医療、金融、マネジメント産業の労働者との共同設計セッションを通じて、この手法を評価する。
実世界のシステムにおけるAI説明のユーザ中心設計におけるAI-DECの利用の意味について論じる。
論文 参考訳(メタデータ) (2024-05-26T22:18:38Z) - Negotiating the Shared Agency between Humans & AI in the Recommender System [1.4249472316161877]
ユーザエージェンシーに関する懸念は、固有の不透明性(情報非対称性)とアルゴリズムにおける一方的な出力(パワー非対称性)の性質から生じている。
我々は,エージェントの種類がユーザの知覚や経験にどのように影響するかを理解し,人間とAIの対話システムのためのガイドラインや設計を洗練するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-03-23T19:23:08Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - On-Premise Artificial Intelligence as a Service for Small and Medium
Size Setups [0.541530201129053]
人工知能(AI)技術は、特定のドメインにカスタマイズされたデプロイメントから、垂直ドメインや産業に水平に浸透する汎用ソリューションへと移行している。
さまざまな商用ソリューションがユーザフレンドリで使いやすいAI(AI)を提供していますが、そのようなエコシステムの民主化を可能にする機能は遅れています。
本章では,AI機能とそれに対応する技術スタックについて論じ,オープンソースユーザフレンドリーな技術を用いた実現の可能性を分析する。
論文 参考訳(メタデータ) (2022-10-12T09:28:02Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support [37.03030554731032]
児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
論文 参考訳(メタデータ) (2022-04-05T16:10:49Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。