論文の概要: Locating Risk: Task Designers and the Challenge of Risk Disclosure in RAI Content Work
- arxiv url: http://arxiv.org/abs/2505.24246v1
- Date: Fri, 30 May 2025 06:08:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.796041
- Title: Locating Risk: Task Designers and the Challenge of Risk Disclosure in RAI Content Work
- Title(参考訳): リスクの配置:タスクデザイナとRAIコンテンツ作業におけるリスク開示の課題
- Authors: Alice Qian Zhang, Ryland Shaw, Laura Dabbish, Jina Suh, Hong Shen,
- Abstract要約: 群衆労働者は、しばしば責任あるAI(RAI)コンテンツワークを任される。
以前の取り組みでは、RAIコンテンツ作業に関連する労働者の幸福に対するリスクが強調されていたが、これらのリスクが労働者にどのように伝達されるかという点では、はるかに注意が払われていない。
本研究では,クラウドソーシングされたRAIタスクにおいて,タスクデザイナがリスク開示にどのようにアプローチするかを検討する。
- 参考スコア(独自算出の注目度): 7.749785705236486
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As AI systems are increasingly tested and deployed in open-ended and high-stakes domains, crowd workers are often tasked with responsible AI (RAI) content work. These tasks include labeling violent content, moderating disturbing text, or simulating harmful behavior for red teaming exercises to shape AI system behaviors. While prior efforts have highlighted the risks to worker well-being associated with RAI content work, far less attention has been paid to how these risks are communicated to workers. Existing transparency frameworks and guidelines such as model cards, datasheets, and crowdworksheets focus on documenting model information and dataset collection processes, but they overlook an important aspect of disclosing well-being risks to workers. In the absence of standard workflows or clear guidance, the consistent application of content warnings, consent flows, or other forms of well-being risk disclosure remain unclear. This study investigates how task designers approach risk disclosure in crowdsourced RAI tasks. Drawing on interviews with 23 task designers across academic and industry sectors, we examine how well-being risk is recognized, interpreted, and communicated in practice. Our findings surface a need to support task designers in identifying and communicating well-being risk not only to support crowdworker well-being but also to strengthen the ethical integrity and technical efficacy of AI development pipelines.
- Abstract(参考訳): AIシステムは、オープンエンドおよびハイテイクなドメインでテストされ、デプロイされる傾向にあるため、クラウドワーカーは、責任あるAI(RAI)コンテンツ作業を担当することがしばしばある。
これらのタスクには、暴力的なコンテンツのラベル付け、乱暴なテキストのモデレーション、あるいはAIシステムの振る舞いを形成するためのレッドチームトレーニングの有害な振る舞いのシミュレートが含まれる。
以前の取り組みでは、RAIコンテンツ作業に関連する労働者の幸福に対するリスクが強調されていたが、これらのリスクが労働者にどのように伝達されるかという点では、はるかに注意が払われていない。
既存の透明性フレームワークや、モデルカード、データシート、クラウドワークシートといったガイドラインは、モデル情報やデータセットの収集プロセスの文書化に重点を置いているが、労働者に幸福なリスクを開示する重要な側面を見落としている。
標準的なワークフローや明確なガイダンスが欠如しているため、コンテンツ警告、同意フロー、その他の健康的なリスク開示の一貫性のある適用は、いまだに不明である。
本研究では,クラウドソーシングされたRAIタスクにおいて,タスクデザイナがリスク開示にどのようにアプローチするかを検討する。
学術・産業分野の23のタスクデザイナとのインタビューをもとに,リスクの認識,解釈,コミュニケーションの実践について検討した。
我々の発見は、クラウドワーカーの幸福をサポートするだけでなく、AI開発パイプラインの倫理的完全性と技術的有効性を強化するために、タスクデザイナの健康リスクの特定とコミュニケーションを支援する必要性を表面化した。
関連論文リスト
- Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Human services organizations and the responsible integration of AI: Considering ethics and contextualizing risk(s) [0.0]
著者らは、AIデプロイメントに関する倫理的懸念は、実装コンテキストや特定のユースケースによって大きく異なると主張している。
彼らは、データ感度、専門的な監視要件、クライアントの幸福に対する潜在的影響などの要因を考慮に入れた、次元的リスクアセスメントアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T19:38:21Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Do as I do (Safely): Mitigating Task-Specific Fine-tuning Risks in Large Language Models [93.08860674071636]
悪質なアクターが、ほぼすべてのタスク固有のデータセットの構造を微妙に操作して、危険なモデル行動を促進する方法を示す。
本稿では,タスク形式を模倣した安全データとユーザデータのスタイルを混合した新しい緩和戦略を提案する。
論文 参考訳(メタデータ) (2024-06-12T18:33:11Z) - AI and the Iterable Epistopics of Risk [1.26404863283601]
AIが社会に提示するリスクは、一般的な計算によって管理可能であると広く理解されている。
本稿では、規制当局、開発者、サイバーセキュリティの専門家によるリスクの把握と管理について詳述する。
論文 参考訳(メタデータ) (2024-04-29T13:33:22Z) - Affirmative safety: An approach to risk management for high-risk AI [6.133009503054252]
高いリスクを持つAIシステムを開発または展開するエンティティは、肯定的な安全性の証拠を示すために必要であるべきだ、と私たちは主張する。
本稿では,モデル開発者が一定のリスクを規制基準値以下に維持する証拠を提示しなければならない,高度なAIのためのリスク管理手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T20:48:55Z) - The Reasoning Under Uncertainty Trap: A Structural AI Risk [0.0]
RUUを人間と機械の両方にとって困難なものにしているのは、レポートにある。
この誤用リスクが、基盤となる構造的リスクのネットワークとどのように結びつくのかを詳述する。
論文 参考訳(メタデータ) (2024-01-29T17:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。