論文の概要: Invisible Labor in Open Source Software Ecosystems
- arxiv url: http://arxiv.org/abs/2401.06889v1
- Date: Fri, 12 Jan 2024 20:52:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 20:56:44.230423
- Title: Invisible Labor in Open Source Software Ecosystems
- Title(参考訳): オープンソースソフトウェアエコシステムにおける見えない労働
- Authors: John Meluso, Amanda Casari, Katie McLaughlin, Milo Z. Trujillo
- Abstract要約: 目に見えない労働とは、完全には見えず、適切に補償されていない仕事、あるいはその両方である。
私たちの研究によると、オープンソースソフトウェア(OSS)の作業の約半数は見えません。
これは、OSS活動の広告が「オープン」であるとすれば、ほとんどの人々にとって労働を目に見えるものにするのではなく、より過度に労働の可視性を見積もることにつながることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Invisible labor is work that is not fully visible, not appropriately
compensated, or both. In open source software (OSS) ecosystems, essential tasks
that do not involve code (like content moderation) often become invisible to
the detriment of individuals and organizations. However, invisible labor is so
difficult to measure that we do not know how much of OSS activities are
invisible. Our study addresses this challenge, demonstrating that roughly half
of OSS work is invisible. We do this by developing a survey technique with
cognitive anchoring that measures OSS developer self-assessments of labor
visibility and attribution. Survey respondents (n=142) reported that their work
is more likely to be nonvisible or partially visible (i.e. visible to at most 1
other person) than fully visible (i.e. visible to 2 or more people).
Furthermore, cognitively anchoring participants to the idea of high work
visibility increased perceptions of labor visibility and decreased visibility
importance compared to anchoring to low work visibility. This suggests that
advertising OSS activities as "open" may not make labor visible to most people,
but rather lead contributors to overestimate labor visibility. We therefore add
to a growing body of evidence that designing systems that recognize all kinds
of labor as legitimate contributions is likely to improve fairness in software
development while providing greater transparency into work designs that help
organizations and communities achieve their goals.
- Abstract(参考訳): 目に見えない労働は、完全には見えず、適切に補償されない仕事であり、その両方である。
オープンソースソフトウェア(OSS)エコシステムでは、コード(コンテンツモデレーションなど)を含まない重要なタスクは、個人や組織の有害行為には見えないことが多い。
しかしながら、見えない労働力を測定することは非常に困難であり、OSS活動のどれだけが見えないかはわからない。
我々の研究は、OSSの作業のおよそ半分が見えないことを実証して、この課題に対処する。
我々は、OSS開発者による労働の可視性と属性の自己評価を計測する認知的アンカーを用いた調査手法を開発する。
調査対象者 (n=142) は、自分の作品が(少なくとも1人だけに見える)、(2人以上に見える)より見えない、または部分的に見える可能性が高いと報告した。
さらに,作業視認性が高いという考え方を認知的に定着させることで,作業視認性が向上し,視認性が低下し,作業視認性が低下する。
これは、ossの活動を「オープン」として宣伝することは、ほとんどの人々に労働を可視化するものではなく、労働の可視性を過大評価する貢献者につながることを示唆している。
したがって、あらゆる種類の労働を合法的な貢献として認識するシステムを設計することは、ソフトウェア開発における公平性を改善しつつ、組織やコミュニティが目標を達成するのに役立つ作業設計に透明性を提供することにつながる、という証拠が増えているのです。
関連論文リスト
- Through the Looking-Glass: Transparency Implications and Challenges in
Enterprise AI Knowledge Systems [3.7640559288894524]
視線ガラスのメタファーを提示し、それをAI知識システムを反射・歪曲するシステムとして概念化する。
我々は,AI知識システムの価値,すなわちシステム透過性,手続き的透明性,成果の透明性を実現するために必要な3つの透明性次元を同定する。
論文 参考訳(メタデータ) (2024-01-17T18:47:30Z) - AesBench: An Expert Benchmark for Multimodal Large Language Models on
Image Aesthetics Perception [64.25808552299905]
AesBenchはMLLMの審美的知覚能力の総合評価を目的とした専門家ベンチマークである。
本稿では,プロの審美専門家が提供した多彩な画像内容と高品質なアノテーションを特徴とするEAPD(Expert-labeled Aesthetics Perception Database)を構築した。
本稿では,知覚(AesP),共感(AesE),評価(AesA),解釈(AesI)の4つの視点からMLLMの審美的知覚能力を測定するための統合的基準を提案する。
論文 参考訳(メタデータ) (2024-01-16T10:58:07Z) - PerceptionGPT: Effectively Fusing Visual Perception into LLM [31.34127196055722]
視覚入力と大言語モデル(LLM)の統合は、多モーダル機能において顕著な進歩をもたらし、視覚的大言語モデル(VLLM)がもたらされた。
本稿では,視覚的知覚能力を持つVLLMを効率よく装備するPerceptionGPTという新しいエンドツーエンドフレームワークを提案する。
本手法は,視覚出力を離散トークンとして定式化する従来の手法によるトレーニングの難しさを著しく軽減する。
論文 参考訳(メタデータ) (2023-11-11T16:59:20Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Controllability-Aware Unsupervised Skill Discovery [94.19932297743439]
本稿では,非教師なしスキル発見手法であるCSD(Controlability-aware Skill Discovery)を導入する。
CSDの鍵となるコンポーネントは制御可能性を考慮した距離関数であり、現在のスキルで達成が難しい状態遷移により大きな値を割り当てる。
ロボット操作と移動環境の6つの実験結果から、CSDは監督なしで多様な複雑なスキルを発見できることが示された。
論文 参考訳(メタデータ) (2023-02-10T08:03:09Z) - Efficient Visual Recognition with Deep Neural Networks: A Survey on
Recent Advances and New Directions [37.914102870280324]
ディープニューラルネットワーク(DNN)は、多くの具体的なタスクにおけるパフォーマンスを大幅に向上させた。
ディープニューラルネットワーク(DNN)は、多くの具体的なタスクにおけるパフォーマンスを大幅に向上させた。
本稿では,近年の進歩の展望と今後の方向性について提案する。
論文 参考訳(メタデータ) (2021-08-30T08:19:34Z) - Harnessing Context for Budget-Limited Crowdsensing with Massive
Uncertain Workers [26.835745787064337]
本稿では,コンテキスト対応作業者選択(CAWS)アルゴリズムを提案する。
CAWSは、予算制約とキャパシティ制約の両方を尊重して、予想される総センシング収益を効率的に最大化することを目指している。
論文 参考訳(メタデータ) (2021-07-03T09:09:07Z) - Heterogeneous Contrastive Learning: Encoding Spatial Information for
Compact Visual Representations [183.03278932562438]
本稿では,エンコーディング段階に空間情報を加えることで,対照的な目的と強いデータ拡張操作の間の学習の不整合を緩和する効果的な手法を提案する。
提案手法は,視覚表現の効率を向上し,自己指導型視覚表現学習の今後の研究を刺激する鍵となるメッセージを提供する。
論文 参考訳(メタデータ) (2020-11-19T16:26:25Z) - Can Semantic Labels Assist Self-Supervised Visual Representation
Learning? [194.1681088693248]
近隣環境におけるコントラスト調整(SCAN)という新しいアルゴリズムを提案する。
一連のダウンストリームタスクにおいて、SCANは従来の完全教師付きおよび自己教師付きメソッドよりも優れたパフォーマンスを達成する。
本研究は, セマンティックラベルが自己指導的手法の補助に有用であることを明らかにする。
論文 参考訳(メタデータ) (2020-11-17T13:25:00Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。