論文の概要: Rideshare Transparency: Translating Gig Worker Insights on AI Platform Design to Policy
- arxiv url: http://arxiv.org/abs/2406.10768v2
- Date: Wed, 19 Jun 2024 15:17:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 01:07:15.367081
- Title: Rideshare Transparency: Translating Gig Worker Insights on AI Platform Design to Policy
- Title(参考訳): Rideshare Transparency: AIプラットフォーム設計に関するGig Worker Insightsをポリシに翻訳する
- Authors: Varun Nagaraj Rao, Samantha Dalal, Eesha Agarwal, Dana Calacci, Andrés Monroy-Hernández,
- Abstract要約: 我々は透明性に関連した害、緩和戦略、労働者のニーズを特徴づける。
この結果から,既存のプラットフォーム設計とドライバが必要とする情報との透明性のギャップが明らかになった。
公共透明性レポートの公開をプラットフォームに要求する新たな規制は、労働者の幸福を改善するためのより効果的なソリューションになるかもしれない。
- 参考スコア(独自算出の注目度): 8.936861276568006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rideshare platforms exert significant control over workers through algorithmic systems that can result in financial, emotional, and physical harm. What steps can platforms, designers, and practitioners take to mitigate these negative impacts and meet worker needs? In this paper, through a novel mixed methods study combining a LLM-based analysis of over 1 million comments posted to online platform worker communities with semi-structured interviews of workers, we thickly characterize transparency-related harms, mitigation strategies, and worker needs while validating and contextualizing our findings within the broader worker community. Our findings expose a transparency gap between existing platform designs and the information drivers need, particularly concerning promotions, fares, routes, and task allocation. Our analysis suggests that rideshare workers need key pieces of information, which we refer to as indicators, to make informed work decisions. These indicators include details about rides, driver statistics, algorithmic implementation details, and platform policy information. We argue that instead of relying on platforms to include such information in their designs, new regulations that require platforms to publish public transparency reports may be a more effective solution to improve worker well-being. We offer recommendations for implementing such a policy.
- Abstract(参考訳): ライドシェアプラットフォームは、経済的、感情的、身体的損害をもたらすアルゴリズムシステムを通じて、労働者を著しく制御する。
プラットフォーム、デザイナ、実践者は、これらのネガティブな影響を緩和し、労働者のニーズを満たすために、どのようなステップをとれるだろうか?
本稿では,LLMによるオンライン・プラットフォーム・ワーカーコミュニティに投稿された100万件以上のコメントと,労働者の半構造化インタビューを併用した新たな混合手法について述べる。
本研究は,既存のプラットフォーム設計とドライバが必要とする情報,特にプロモーション,運賃,経路,タスク割り当ての透明性のギャップを明らかにするものである。
我々の分析は、ライドシェア労働者は、インフォメーションと呼ばれる重要な情報を必要とし、情報的な仕事の決定を行うことを示唆している。
これらの指標には、乗車、ドライバー統計、アルゴリズムの実装の詳細、プラットフォームポリシー情報などが含まれる。
我々は、そのような情報をデザインに含めるプラットフォームに頼る代わりに、公共の透明性レポートを公開することを要求する新しい規制が、労働者の幸福を改善するためのより効果的なソリューションになるかもしれないと論じている。
我々はそのような政策を実施するための勧告を提示する。
関連論文リスト
- Understanding the Factors Influencing Self-Managed Enterprises of Crowdworkers: A Comprehensive Review [49.623146117284115]
本稿では,クラウドソーシングの自己管理型クラウドワーカー企業(SMEC)への移行について検討する。
SMECの台頭を説明する重要な要因を特定することに焦点を当て、このシフトの基本的な側面を理解するために文献をレビューする。
この研究は、今後の研究を指導し、政策とプラットフォーム開発を指導することを目的としており、この発展途上の風景における公正な労働実践の重要性を強調している。
論文 参考訳(メタデータ) (2024-03-19T14:33:16Z) - Designing Sousveillance Tools for Gig Workers [10.31597350024712]
独立して契約した従業員として、ギグワーカーは職場監視の結果に不当に苦しむ。
批判的な理論家の中には、そのような権力の乱用に対処する潜在的手段としての監視を提案した者もいる。
半構造化インタビューを行い、ギグワーカーと共同設計活動を主導した。
我々は、監視経験に対するギグワーカーの態度と過去の経験を識別する。
論文 参考訳(メタデータ) (2024-03-15T03:08:26Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Information Design in Multi-Agent Reinforcement Learning [61.140924904755266]
強化学習(Reinforcement Learning、RL)は、人間の幼児や動物が環境から学ぶ方法にインスパイアされている。
計算経済学の研究は、他者に直接影響を与える2つの方法を蒸留する: 有形物(機械設計)の提供と情報(情報設計)の提供である。
論文 参考訳(メタデータ) (2023-05-08T07:52:15Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Unpacking Invisible Work Practices, Constraints, and Latent Power
Relationships in Child Welfare through Casenote Analysis [3.739243122393041]
ケースワーマーは、チャイルドウェルフェア(CW)の家族に関する詳細な物語を書いている。
ケースノートは、現場のケースワーカーの経験を理解するためのユニークなレンズを提供する。
本研究は,ケースノートの最初の計算検査を行い,SIGCHIコミュニティに紹介する。
論文 参考訳(メタデータ) (2022-03-10T05:48:22Z) - Game of Privacy: Towards Better Federated Platform Collaboration under
Privacy Restriction [95.12382372267724]
Vertical Federated Learning (VFL)は、異なるプラットフォームに格納された異なる機能空間を持つクロスサイロデータからモデルをトレーニングすることを目的としている。
フェデレーション学習の固有のプライバシーリスクのため、関連するデータの総量は制限される可能性がある。
我々は、VFLフレームワークのマルチプラットフォーム情報を活用して、各プラットフォームが自身のタスクに役立てることができるような、相互協力を通じて、異なるプラットフォームをインセンティブにすることを提案する。
論文 参考訳(メタデータ) (2022-02-10T16:45:40Z) - On the Design of Strategic Task Recommendations for Sustainable
Crowdsourcing-Based Content Moderation [1.8275108630751837]
クラウドソーシングベースのコンテンツモデレーションは、クラウドワーカーのためのコンテンツモデレーションタスクをホストするプラットフォームである。
現在の最先端のレコメンデーションシステムは、労働者のメンタルヘルスへの影響を無視している。
本稿では,作業者のメンタルステータスに基づいた求職を推薦するクラウドソーシングプラットフォームのための,新たな戦略的レコメンデーションシステムを提案する。
論文 参考訳(メタデータ) (2021-06-04T20:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。