論文の概要: AURA: Amplifying Understanding, Resilience, and Awareness for Responsible AI Content Work
- arxiv url: http://arxiv.org/abs/2411.01426v1
- Date: Sun, 03 Nov 2024 03:27:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:48:26.075694
- Title: AURA: Amplifying Understanding, Resilience, and Awareness for Responsible AI Content Work
- Title(参考訳): AURA: 責任あるAIコンテンツ作業に対する理解、レジリエンス、認識の増幅
- Authors: Alice Qian Zhang, Judith Amores, Mary L. Gray, Mary Czerwinski, Jina Suh,
- Abstract要約: 本研究では、責任あるAI(RAI)活動を支援するコンテンツワークの性質と課題について検討する。
我々は、RAIコンテンツワークの概念化と、コンテンツワーカーに全体的なサポートを提供するための推奨の枠組みを開発する。
我々は、我々のフレームワークが、RAIコンテンツ労働者の幸福でプロフェッショナルな開発を支援するために、将来のイノベーションをどのように導くかについて議論する。
- 参考スコア(独自算出の注目度): 9.15754890995565
- License:
- Abstract: Behind the scenes of maintaining the safety of technology products from harmful and illegal digital content lies unrecognized human labor. The recent rise in the use of generative AI technologies and the accelerating demands to meet responsible AI (RAI) aims necessitates an increased focus on the labor behind such efforts in the age of AI. This study investigates the nature and challenges of content work that supports RAI efforts, or "RAI content work," that span content moderation, data labeling, and red teaming -- through the lived experiences of content workers. We conduct a formative survey and semi-structured interview studies to develop a conceptualization of RAI content work and a subsequent framework of recommendations for providing holistic support for content workers. We validate our recommendations through a series of workshops with content workers and derive considerations for and examples of implementing such recommendations. We discuss how our framework may guide future innovation to support the well-being and professional development of the RAI content workforce.
- Abstract(参考訳): 有害で違法なデジタルコンテンツからテクノロジー製品の安全性を維持するシーンの背後には、人間の労働力がない。
近年のジェネレーティブAI技術の利用の増加と、責任あるAI(RAI)を満たすための要求の加速は、AIの時代におけるそのような取り組みの背後にある労働への集中を増大させる必要がある。
本研究では、コンテンツワーカーの生活体験を通じて、コンテンツモデレーション、データラベリング、レッドコラボリングにまたがる「RAIコンテンツワーク」を支援するコンテンツワークの性質と課題について検討する。
我々は、RAIコンテンツワークの概念化と、それに続くコンテンツワーカーに全体的支援を提供するためのレコメンデーションの枠組みを開発するために、フォーマティブな調査と半構造化インタビュー研究を行う。
我々は,コンテンツワーカーによる一連のワークショップを通じてレコメンデーションを検証し,そのようなレコメンデーションを実施するための考察と事例を導出する。
我々は、我々のフレームワークが、RAIコンテンツ労働者の幸福でプロフェッショナルな開発を支援するために、将来のイノベーションをどのように導くかについて議論する。
関連論文リスト
- Using Case Studies to Teach Responsible AI to Industry Practitioners [8.152080071643685]
我々は、対話型ケーススタディを用いて、組織的・実践的なエンゲージメントとRAI(Responsible AI)の先進的学習を実現する新しい利害関係者第一の教育手法を提案する。
評価の結果,ワークショップの参加者は,作業にRAIを適用することに対する理解とモチベーションに肯定的な変化があることが示唆された。
論文 参考訳(メタデータ) (2024-07-19T22:06:06Z) - Teaching Design Science as a Method for Effective Research Development [0.24578723416255752]
デザインサイエンスリサーチ(DSR)方法論の適用は、情報システム(IS)とソフトウェア工学研究の一般的な作業資源になりつつある。
この章には、DSR、教育方法論、学習目的、レコメンデーションの例が含まれている。
我々は,デザインサイエンスのユーザ体験に関するデータ収集を目的とした調査成果を作成した。
論文 参考訳(メタデータ) (2024-07-13T10:43:06Z) - Networking Systems for Video Anomaly Detection: A Tutorial and Survey [55.28514053969056]
ビデオ異常検出(VAD)は人工知能(AI)コミュニティにおける基本的な研究課題である。
本稿では,各種深層学習駆動型VAD経路の基本前提,学習フレームワーク,適用シナリオについて述べる。
我々は、産業用IoTおよびスマート都市における最新のNSVAD研究と、デプロイ可能なNSVADのためのエンドクラウド共同アーキテクチャを紹介します。
論文 参考訳(メタデータ) (2024-05-16T02:00:44Z) - Safeguarding Marketing Research: The Generation, Identification, and Mitigation of AI-Fabricated Disinformation [0.26107298043931204]
生成AIは、人間のコントリビューションを忠実に模倣するコンテンツを生成する能力を確立している。
これらのモデルは、世論の操作や認識の歪曲に利用することができ、結果としてデジタルプラットフォームに対する信頼が低下する。
本研究は,マーケティング文献と実践に3つの方法で貢献する。
論文 参考訳(メタデータ) (2024-03-17T13:08:28Z) - Service Level Agreements and Security SLA: A Comprehensive Survey [51.000851088730684]
本調査では,SLA管理のコンセプト,アプローチ,オープンな課題を網羅する技術の現状を明らかにする。
これは、既存の調査で提案された分析と、このトピックに関する最新の文献とのギャップを包括的にレビューし、カバーすることで貢献する。
SLAライフサイクルの段階に基づく分析を組織化するための新しい分類基準を提案する。
論文 参考訳(メタデータ) (2024-01-31T12:33:41Z) - Semantic Communications for Artificial Intelligence Generated Content
(AIGC) Toward Effective Content Creation [75.73229320559996]
本稿では,AIGCとSemComの統合の概念モデルを開発する。
AIGC技術を利用した新しいフレームワークが,意味情報のためのエンコーダおよびデコーダとして提案されている。
このフレームワークは、生成されたさまざまなタイプのコンテンツ、要求される品質、活用される意味情報に適応することができる。
論文 参考訳(メタデータ) (2023-08-09T13:17:21Z) - A Rapid Review of Responsible AI frameworks: How to guide the
development of ethical AI [1.3734044451150018]
我々は、Responsible AI(RAI)アプリケーションの開発とデプロイを支援するために、原則、ガイドライン、および/またはツールを提供するいくつかのフレームワークを迅速にレビューする。
実世界のプロジェクト実装における技術的利害関係者と非技術的利害関係者の両方をサポートする"キャッチオール"フレームワークは存在しないことが明らかとなった。
論文 参考訳(メタデータ) (2023-06-08T07:47:18Z) - Applying Standards to Advance Upstream & Downstream Ethics in Large
Language Models [0.0]
本稿では,AIが生成するコンテンツの保護をAI所有者がいかに開発できるかを考察する。
他のコンテンツ制作業界では、行動規範や倫理基準が確立されている。
論文 参考訳(メタデータ) (2023-06-06T08:47:42Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - A Unified Framework for Integrating Semantic Communication and
AI-Generated Content in Metaverse [57.317580645602895]
統合セマンティックコミュニケーションとAI生成コンテンツ(ISGC)は近年多くの注目を集めている。
ISGCはユーザ入力から意味情報を転送し、デジタルコンテンツを生成し、Metaverse用のグラフィックをレンダリングする。
最適化されたリソース割り当てのための統合ゲインを含む,ISGCの2つの主要なメリットをキャプチャする統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-05-18T02:02:36Z) - Guiding AI-Generated Digital Content with Wireless Perception [69.51950037942518]
本稿では,AIGC(AIGC)と無線認識を統合し,デジタルコンテンツ制作の質を向上させる。
このフレームワークは、単語の正確な記述が難しいユーザの姿勢を読み取るために、新しいマルチスケール認識技術を採用し、それをスケルトン画像としてAIGCモデルに送信する。
生産プロセスはAIGCモデルの制約としてユーザの姿勢を強制するため、生成されたコンテンツはユーザの要求に適合する。
論文 参考訳(メタデータ) (2023-03-26T04:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。