論文の概要: Understanding Frontline Workers' and Unhoused Individuals' Perspectives
on AI Used in Homeless Services
- arxiv url: http://arxiv.org/abs/2303.09743v1
- Date: Fri, 17 Mar 2023 02:46:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:50:47.572581
- Title: Understanding Frontline Workers' and Unhoused Individuals' Perspectives
on AI Used in Homeless Services
- Title(参考訳): ホームレスサービスにおける最前線労働者と非収容者のAI観の理解
- Authors: Tzu-Sheng Kuo, Hong Shen, Jisoo Geum, Nev Jones, Jason I. Hong, Haiyi
Zhu, Kenneth Holstein
- Abstract要約: 我々は、少ない住宅資源を優先するデプロイされたADSにおける利害関係者の視点を理解することを目的としている。
私たちは、利害関係者のフィードバックとデザインのアイデアを引き出すために、AIライフサイクルのコミックボードを採用しました。
我々の研究結果は、利害関係者が、AIの知識がなくても、AIシステムの設計と展開に対して、具体的にかつ重要なフィードバックを提供できることを示している。
- 参考スコア(独自算出の注目度): 18.770231762085974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen growing adoption of AI-based decision-support systems
(ADS) in homeless services, yet we know little about stakeholder desires and
concerns surrounding their use. In this work, we aim to understand impacted
stakeholders' perspectives on a deployed ADS that prioritizes scarce housing
resources. We employed AI lifecycle comicboarding, an adapted version of the
comicboarding method, to elicit stakeholder feedback and design ideas across
various components of an AI system's design. We elicited feedback from county
workers who operate the ADS daily, service providers whose work is directly
impacted by the ADS, and unhoused individuals in the region. Our participants
shared concerns and design suggestions around the AI system's overall
objective, specific model design choices, dataset selection, and use in
deployment. Our findings demonstrate that stakeholders, even without AI
knowledge, can provide specific and critical feedback on an AI system's design
and deployment, if empowered to do so.
- Abstract(参考訳): 近年、ホームレスサービスにおけるaiベースの意思決定支援システム(ads)の採用が増加しているが、ステークホルダーの欲求や利用に関する懸念についてはほとんどわかっていない。
本研究では,少ない住宅資源を優先するデプロイされたADSにおける利害関係者の視点を理解することを目的とする。
提案手法の適応バージョンであるaiライフサイクルcomicboardingを用いて,aiシステム設計のさまざまなコンポーネントに対してステークホルダーからのフィードバックと設計アイデアを導き出した。
我々は、ADSを毎日運営する郡労働者、ADSから直接影響を受けるサービス提供者、地域の未収容者からのフィードバックを求めた。
参加者は、AIシステムの全体的な目的、特定のモデル設計の選択、データセットの選択、デプロイメントにおける使用に関する懸念と設計提案を共有しました。
我々の調査結果は、AIの知識がなくてもステークホルダーが、AIシステムの設計とデプロイメントに関する具体的な、重要なフィードバックを提供できることを示している。
関連論文リスト
- Exploring the Impact of Lay User Feedback for Improving AI Fairness [4.2646936031015645]
公平なAI開発において利害関係者、特にレイユーザを増やすことは、まだ見過ごされがちだ。
近年の取り組みでは,レイユーザによるAIフェアネス関連のフィードバックの提供が検討されているが,ユーザからのフィードバックをAIモデルに統合する方法の理解が不足している。
我々の研究は、XGBoostにユーザフェアネスフィードバックを統合することのベースライン結果に貢献し、AIフェアネスにおける利害関係者の研究をブートストラップするデータセットとコードフレームワークを提供しています。
論文 参考訳(メタデータ) (2023-12-13T11:17:29Z) - Synergizing Human-AI Agency: A Guide of 23 Heuristics for Service
Co-Creation with LLM-Based Agents [16.560339524456268]
この研究は、に関心のあるサービスプロバイダが、その実践者やより広範なコミュニティに対して、Large Language Models(LLM)技術が統合されるかどうかを判断するための原動力となる。
LLMをベースとしたサービス共同作成ツールであるCoAGentを通じて,非AI専門家とAIの相互学習の旅について検討する。
論文 参考訳(メタデータ) (2023-10-23T16:11:48Z) - Out of Context: Investigating the Bias and Fairness Concerns of
"Artificial Intelligence as a Service" [6.824692201913679]
AI as a Service(AI as a Service)は、様々なプラグイン・アンド・プレイAIサービスやツールを提供する、急速に成長している市場です。
しかし、AIシステムは社会的影響を持つバイアスや不平等をカプセル化できることが知られている。
フェアネスの文脈に敏感な性質は、しばしばAIの「ワンサイズフィットオール」アプローチと相容れない。
論文 参考訳(メタデータ) (2023-02-02T22:32:10Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - On-Premise Artificial Intelligence as a Service for Small and Medium
Size Setups [0.541530201129053]
人工知能(AI)技術は、特定のドメインにカスタマイズされたデプロイメントから、垂直ドメインや産業に水平に浸透する汎用ソリューションへと移行している。
さまざまな商用ソリューションがユーザフレンドリで使いやすいAI(AI)を提供していますが、そのようなエコシステムの民主化を可能にする機能は遅れています。
本章では,AI機能とそれに対応する技術スタックについて論じ,オープンソースユーザフレンドリーな技術を用いた実現の可能性を分析する。
論文 参考訳(メタデータ) (2022-10-12T09:28:02Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support [37.03030554731032]
児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
論文 参考訳(メタデータ) (2022-04-05T16:10:49Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - Artificial Intelligence Aided Next-Generation Networks Relying on UAVs [140.42435857856455]
動的環境において,人工知能(AI)による無人航空機(UAV)による次世代ネットワーク支援が提案されている。
AI対応のUAV支援無線ネットワーク(UAWN)では、複数のUAVが航空基地局として使用され、ダイナミックな環境に迅速に適応することができる。
AIフレームワークの利点として、従来のUAWNのいくつかの課題が回避され、ネットワークパフォーマンスが向上し、信頼性が向上し、アジャイル適応性が向上する。
論文 参考訳(メタデータ) (2020-01-28T15:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。