論文の概要: Worker Discretion Advised: Co-designing Risk Disclosure in Crowdsourced Responsible AI (RAI) Content Work
- arxiv url: http://arxiv.org/abs/2509.12140v1
- Date: Mon, 15 Sep 2025 17:05:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.415104
- Title: Worker Discretion Advised: Co-designing Risk Disclosure in Crowdsourced Responsible AI (RAI) Content Work
- Title(参考訳): クラウドソーシング型責任AI(RAI)コンテンツワークにおけるリスク開示の共同設計
- Authors: Alice Qian, Ziqi Yang, Ryland Shaw, Jina Suh, Laura Dabbish, Hong Shen,
- Abstract要約: 責任あるAI(RAI)コンテンツ作業は、しばしば群衆労働者を潜在的に有害なコンテンツに晒す。
29人のタスクデザイナ、ワーカー、プラットフォーム代表と共同設計セッションを行います。
デザインの緊張を識別し、開示プラクティスを形成する社会技術的トレードオフをマップします。
- 参考スコア(独自算出の注目度): 12.492380198885295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible AI (RAI) content work, such as annotation, moderation, or red teaming for AI safety, often exposes crowd workers to potentially harmful content. While prior work has underscored the importance of communicating well-being risk to employed content moderators, designing effective disclosure mechanisms for crowd workers while balancing worker protection with the needs of task designers and platforms remains largely unexamined. To address this gap, we conducted co-design sessions with 29 task designers, workers, and platform representatives. We investigated task designer preferences for support in disclosing tasks, worker preferences for receiving risk disclosure warnings, and how platform stakeholders envision their role in shaping risk disclosure practices. We identify design tensions and map the sociotechnical tradeoffs that shape disclosure practices. We contribute design recommendations and feature concepts for risk disclosure mechanisms in the context of RAI content work.
- Abstract(参考訳): Responsible AI(RAI)コンテンツワーク(アノテーション、モデレーション、AI安全性のためのレッドチーム)は、しばしば群衆労働者を潜在的に有害なコンテンツに晒す。
以前の作業では、コンテンツモデレーターに幸福なリスクを伝えることの重要性が強調されている一方で、作業者保護とタスクデザイナやプラットフォームのニーズのバランスを保ちながら、群衆労働者に効果的な開示メカニズムを設計することの重要性はほとんど検討されていない。
このギャップに対処するため,29名のタスクデザイナ,作業者,プラットフォーム担当者と共同設計セッションを行った。
本研究では,課題開示支援のためのタスクデザイナ選好,リスク開示警告を受ける労働者選好,リスク開示プラクティス形成におけるプラットフォーム利害関係者の役割について検討した。
デザインの緊張を識別し、開示プラクティスを形成する社会技術的トレードオフをマップします。
我々は、RAIコンテンツ作業の文脈におけるリスク開示メカニズムの設計勧告と特徴概念に貢献する。
関連論文リスト
- Oyster-I: Beyond Refusal - Constructive Safety Alignment for Responsible Language Models [92.8572422396691]
コンストラクティブ・セーフティ・アライメント(CSA)は、悪意のある誤用を防ぎつつ、脆弱性のあるユーザを安全で有益な結果へと積極的に誘導する。
Oy1は、高度な汎用能力を保ちながら、オープンモデル間の最先端の安全性を達成する。
私たちは、責任あるユーザ中心AIをサポートするために、Oy1、コード、ベンチマークをリリースしています。
論文 参考訳(メタデータ) (2025-09-02T03:04:27Z) - Locating Risk: Task Designers and the Challenge of Risk Disclosure in RAI Content Work [8.740145195086205]
群衆労働者は、しばしば責任あるAI(RAI)コンテンツワークを任される。
以前の取り組みでは、RAIコンテンツ作業に関連する労働者の幸福に対するリスクが強調されていたが、これらのリスクが労働者にどのように伝達されるかという点では、はるかに注意が払われていない。
本研究では,クラウドソーシングされたRAIタスクにおいて,タスクデザイナがリスク開示にどのようにアプローチするかを検討する。
論文 参考訳(メタデータ) (2025-05-30T06:08:50Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - Rideshare Transparency: Translating Gig Worker Insights on AI Platform Design to Policy [8.936861276568006]
透明性に関連する害、緩和戦略、労働者のニーズを特定します。
オンラインプラットフォームワーカーコミュニティに投稿された100万件以上のコメントのLCMに基づく分析を組み合わせた,新しい混合手法による研究を用いている。
我々は、プラットフォームが公開透明性レポートを公開することを要求する新しい規制は、労働者の幸福を改善するためのより効果的な解決策であると主張している。
論文 参考訳(メタデータ) (2024-06-16T00:46:49Z) - Designing Sousveillance Tools for Gig Workers [10.31597350024712]
独立して契約した従業員として、ギグワーカーは職場監視の結果に不当に苦しむ。
批判的な理論家の中には、そのような権力の乱用に対処する潜在的手段としての監視を提案した者もいる。
半構造化インタビューを行い、ギグワーカーと共同設計活動を主導した。
我々は、監視経験に対するギグワーカーの態度と過去の経験を識別する。
論文 参考訳(メタデータ) (2024-03-15T03:08:26Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - Red-Teaming for Generative AI: Silver Bullet or Security Theater? [42.35800543892003]
我々は、赤いチーム化は、GenAIの有害な軽減を特徴付ける上で価値のある大胆なアイデアであるが、業界はAIを保護するために、閉じたドアの後ろでレッドチームやその他の戦略を効果的に適用するかもしれないと論じている。
生成AIの評価のより堅牢なツールボックスに向けて、私たちは、私たちの推奨事項を、将来のAI赤チームプラクティスをガイドし、足場にすることを目的とした質問銀行に合成します。
論文 参考訳(メタデータ) (2024-01-29T05:46:14Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。