論文の概要: Exploring Moral Principles Exhibited in OSS: A Case Study on GitHub
Heated Issues
- arxiv url: http://arxiv.org/abs/2307.15631v1
- Date: Fri, 28 Jul 2023 15:42:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 16:02:02.299215
- Title: Exploring Moral Principles Exhibited in OSS: A Case Study on GitHub
Heated Issues
- Title(参考訳): ossで示された道徳原則を探求する - github heated issuesのケーススタディ
- Authors: Ramtin Ehsani, Rezvaneh Rezapour, Preetha Chatterjee
- Abstract要約: GitHubのイシュースレッドで有毒なコミュニケーションを分析して、テキストで示される5種類の道徳的原則を特定し、理解します。
予備的な発見は、道徳原則とOSSコミュニケーションにおける有毒なコメントの関連性を示唆している。
- 参考スコア(独自算出の注目度): 5.659436621527968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To foster collaboration and inclusivity in Open Source Software (OSS)
projects, it is crucial to understand and detect patterns of toxic language
that may drive contributors away, especially those from underrepresented
communities. Although machine learning-based toxicity detection tools trained
on domain-specific data have shown promise, their design lacks an understanding
of the unique nature and triggers of toxicity in OSS discussions, highlighting
the need for further investigation. In this study, we employ Moral Foundations
Theory to examine the relationship between moral principles and toxicity in
OSS. Specifically, we analyze toxic communications in GitHub issue threads to
identify and understand five types of moral principles exhibited in text, and
explore their potential association with toxic behavior. Our preliminary
findings suggest a possible link between moral principles and toxic comments in
OSS communications, with each moral principle associated with at least one type
of toxicity. The potential of MFT in toxicity detection warrants further
investigation.
- Abstract(参考訳): オープンソースソフトウェア(OSS)プロジェクトのコラボレーションとインクリビティを促進するためには、特に表現不足のコミュニティから貢献者を遠ざける可能性のある有害な言語のパターンを理解し、検出することが重要です。
ドメイン固有のデータでトレーニングされた機械学習ベースの毒性検出ツールは約束されているものの、その設計はossの議論における毒性のユニークな性質と引き金の理解を欠き、さらなる調査の必要性を強調している。
本研究では,道徳的原理とOSSの毒性の関係を検討するために,道徳的基礎理論を用いた。
具体的には、GitHubの発行するスレッドで有毒なコミュニケーションを分析し、テキストで示される5種類の道徳原則を特定し、理解し、有毒な行動との関連性を探る。
予備的な知見は、道徳原則とOSSコミュニケーションにおける有毒なコメントの関連性を示唆しており、それぞれの道徳原則は少なくとも1種類の有毒性と関連している。
毒性検出におけるmftの可能性はさらなる調査の必要となる。
関連論文リスト
- Exploring ChatGPT for Toxicity Detection in GitHub [5.003898791753481]
しばしば有毒なコメントとして表されるネガティブな会話の頻度は、開発者の幸福と生産性に重大な課題をもたらします。
プロジェクトコミュニケーションにおいてこのような負性性を特定するためには, 自動毒性検出モデルが必要である。
これらのモデルを効果的にトレーニングするには、大規模なソフトウェアエンジニアリング固有の毒性データセットが必要です。
論文 参考訳(メタデータ) (2023-12-20T15:23:00Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - ToxiSpanSE: An Explainable Toxicity Detection in Code Review Comments [4.949881799107062]
ToxiSpanSEは、ソフトウェアエンジニアリング(SE)ドメインで有害なスパンを検出する最初のツールである。
我々のモデルは、有害なクラストークンに対する0.88ドルのF1ドル、0.87の精度、および0.93のリコールで最高のスコアを得た。
論文 参考訳(メタデータ) (2023-07-07T04:55:11Z) - Facilitating Fine-grained Detection of Chinese Toxic Language:
Hierarchical Taxonomy, Resources, and Benchmarks [18.44630180661091]
既存のデータセットには、有害な型や表現の詳細なアノテーションがない。
ポストの毒性を検出するために語彙的知識を導入することが重要である。
本稿では,中国語の有害な言語をきめ細かい検出を容易にする。
論文 参考訳(メタデータ) (2023-05-08T03:50:38Z) - Detoxifying Text with MaRCo: Controllable Revision with Experts and
Anti-Experts [57.38912708076231]
本稿では,制御可能な生成法とテキスト書き直し法を組み合わせた解毒アルゴリズムMARCoを紹介する。
MaRCoは、毒性のないLMと毒性のあるLMの下の可能性を利用して、マスクすべき候補単語を見つけ、置換する可能性がある。
我々は,いくつかの微妙な毒性とマイクロアグレスデータセットについて評価し,自動測定値の基準値を上回るだけでなく,MARCoの書き直しは人間による評価で2.1ドル以上好まれることを示した。
論文 参考訳(メタデータ) (2022-12-20T18:50:00Z) - Toxicity Detection with Generative Prompt-based Inference [3.9741109244650823]
言語モデル(LM)は、望ましくない内容を含むコーパスで訓練され、バイアスや毒性を示す能力を持つことは、長年にわたって知られていたリスクである。
本研究では,ゼロショットプロンプトによる毒性検出の生成的変異について検討し,プロンプトエンジニアリングに関する総合的な試行を行った。
論文 参考訳(メタデータ) (2022-05-24T22:44:43Z) - Revisiting Contextual Toxicity Detection in Conversations [28.465019968374413]
ヒトによる毒性のラベル付けは、一般的に、会話の構造、極性、文脈の話題に影響されている。
本稿では、文脈毒性検出のためのニューラルネットワークを導入して、これらの知見を計算検出モデルに適用することを提案する。
また、このようなモデルが、特にソーシャルメディア領域において、合成データの恩恵を受けることを実証した。
論文 参考訳(メタデータ) (2021-11-24T11:50:37Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。