論文の概要: "Silent Is Not Actually Silent": An Investigation of Toxicity on Bug Report Discussion
- arxiv url: http://arxiv.org/abs/2503.10072v1
- Date: Thu, 13 Mar 2025 05:39:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:54:21.344754
- Title: "Silent Is Not Actually Silent": An Investigation of Toxicity on Bug Report Discussion
- Title(参考訳): サイレントは実際には無罪ではない」:バグ報告に関する毒性調査
- Authors: Mia Mohammad Imran, Jaydeb Sarker,
- Abstract要約: 本研究では,GitHubのバグレポートの毒性について,81件を含む203件のバグスレッドの質的分析を通じて検討した。
以上の結果から,バグの重症度や優先度の誤認識,ツールによる未解決のフラストレーション,プロフェッショナルコミュニケーションの経過など,毒性が頻繁に発生することが明らかとなった。
予備的な知見は,毒性を緩和することにより,バグ解決を改善するための実用的な勧告を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Toxicity in bug report discussions poses significant challenges to the collaborative dynamics of open-source software development. Bug reports are crucial for identifying and resolving defects, yet their inherently problem-focused nature and emotionally charged context make them susceptible to toxic interactions. This study explores toxicity in GitHub bug reports through a qualitative analysis of 203 bug threads, including 81 toxic ones. Our findings reveal that toxicity frequently arises from misaligned perceptions of bug severity and priority, unresolved frustrations with tools, and lapses in professional communication. These toxic interactions not only derail productive discussions but also reduce the likelihood of actionable outcomes, such as linking issues with pull requests. Our preliminary findings offer actionable recommendations to improve bug resolution by mitigating toxicity.
- Abstract(参考訳): バグレポートの議論における毒性は、オープンソースソフトウェア開発の協調的ダイナミクスに重大な課題をもたらす。
バグレポートは欠陥の特定と解決に不可欠だが、その本質的に問題に焦点を絞った性質と感情的な状況は、有害な相互作用に影響を受けやすい。
本研究では,GitHubのバグレポートの毒性について,81件を含む203件のバグスレッドの質的分析を通じて検討した。
以上の結果から,バグの重症度や優先度の誤認識,ツールによる未解決のフラストレーション,プロフェッショナルコミュニケーションの経過など,毒性が頻繁に発生することが明らかとなった。
これらの有害な相互作用は、生産的な議論を遅らせるだけでなく、プルリクエストと問題をリンクするなど、実行可能な結果の可能性を減らします。
予備的な知見は,毒性を緩和することにより,バグ解決を改善するための実用的な勧告を提供する。
関連論文リスト
- The Landscape of Toxicity: An Empirical Investigation of Toxicity on GitHub [3.0586855806896054]
ProfanityはGitHubで最も頻度の高い毒性であり、続いてトロルと侮辱が続く。
企業スポンサーのプロジェクトは毒性が低いが、ゲームプロジェクトはゲーム以外のプロジェクトの7倍の毒性がある。
過去に有毒なコメントを書いたOSSコントリビュータは、このような行動を繰り返す可能性が著しく高い。
論文 参考訳(メタデータ) (2025-02-12T09:24:59Z) - Analyzing Toxicity in Open Source Software Communications Using Psycholinguistics and Moral Foundations Theory [5.03553492616371]
本稿では,オープンソースソフトウェア(OSS)における有害通信の自動検出のための機械学習によるアプローチについて検討する。
我々は精神言語学のレキシコンとモラル・ファンデーションズ・理論を利用して、OSSコミュニケーションチャネルの2種類の毒性を分析し、コメントとコードレビューを発行する。
道徳的価値を特徴として使うことは言語的手がかりよりも効果的であり、コードレビューデータ中の有害なインスタンスを67.50%、問題コメントを64.83%特定するF1尺度となる。
論文 参考訳(メタデータ) (2024-12-17T17:52:00Z) - Exploring ChatGPT for Toxicity Detection in GitHub [5.003898791753481]
しばしば有毒なコメントとして表されるネガティブな会話の頻度は、開発者の幸福と生産性に重大な課題をもたらします。
プロジェクトコミュニケーションにおいてこのような負性性を特定するためには, 自動毒性検出モデルが必要である。
これらのモデルを効果的にトレーニングするには、大規模なソフトウェアエンジニアリング固有の毒性データセットが必要です。
論文 参考訳(メタデータ) (2023-12-20T15:23:00Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Exploring Moral Principles Exhibited in OSS: A Case Study on GitHub
Heated Issues [5.659436621527968]
GitHubのイシュースレッドで有毒なコミュニケーションを分析して、テキストで示される5種類の道徳的原則を特定し、理解します。
予備的な発見は、道徳原則とOSSコミュニケーションにおける有毒なコメントの関連性を示唆している。
論文 参考訳(メタデータ) (2023-07-28T15:42:10Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - Silent Bugs in Deep Learning Frameworks: An Empirical Study of Keras and
TensorFlow [13.260758930014154]
ディープラーニング(DL)フレームワークは今や広く使われており、複雑なモデルの作成を単純化し、DLの専門家でない人たちにも様々なアプリケーションとの統合が可能である。
本稿では,無声バグと呼ばれるバグのサブカテゴリを扱い,誤った動作を導くが,システムクラッシュやハングを発生させることなく,エラーメッセージをユーザに提示する。
本稿では,Kerasとサイレントバグに関する最初の実証的研究とそのユーザプログラムへの影響について述べる。
論文 参考訳(メタデータ) (2021-12-26T04:18:57Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。