論文の概要: Ethical Classification of Non-Coding Contributions in Open-Source Projects via Large Language Models
- arxiv url: http://arxiv.org/abs/2507.21583v1
- Date: Tue, 29 Jul 2025 08:34:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.862218
- Title: Ethical Classification of Non-Coding Contributions in Open-Source Projects via Large Language Models
- Title(参考訳): 大規模言語モデルによるオープンソースプロジェクトにおける非コーディングコントリビューションの倫理的分類
- Authors: Sergio Cobos, Javier Luis Cánovas Izquierdo,
- Abstract要約: 本稿では,Large Language Models (LLM) を利用したOSSプロジェクトにおける非コーディングコントリビューションの倫理的品質の分類手法を提案する。
コントリビュータ Covenant に基づいた倫理指標のセットを定義し,OSS の非コーディングコントリビューションにおける倫理的行動を評価するための分類手法を開発した。
- 参考スコア(独自算出の注目度): 0.3222802562733786
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The development of Open-Source Software (OSS) is not only a technical challenge, but also a social one due to the diverse mixture of contributors. To this aim, social-coding platforms, such as GitHub, provide the infrastructure needed to host and develop the code, but also the support for enabling the community's collaboration, which is driven by non-coding contributions, such as issues (i.e., change proposals or bug reports) or comments to existing contributions. As with any other social endeavor, this development process faces ethical challenges, which may put at risk the project's sustainability. To foster a productive and positive environment, OSS projects are increasingly deploying codes of conduct, which define rules to ensure a respectful and inclusive participatory environment, with the Contributor Covenant being the main model to follow. However, monitoring and enforcing these codes of conduct is a challenging task, due to the limitations of current approaches. In this paper, we propose an approach to classify the ethical quality of non-coding contributions in OSS projects by relying on Large Language Models (LLM), a promising technology for text classification tasks. We defined a set of ethical metrics based on the Contributor Covenant and developed a classification approach to assess ethical behavior in OSS non-coding contributions, using prompt engineering to guide the model's output.
- Abstract(参考訳): オープンソースソフトウェア(OSS)の開発は技術的な課題であるだけでなく、様々なコントリビュータの混在による社会的問題でもある。
この目的のために、GitHubのようなソーシャルコーディングプラットフォームは、コードをホストして開発するのに必要なインフラストラクチャを提供するだけでなく、イシュー(提案の変更やバグレポートなど)や既存のコントリビューションに対するコメントなど、非コーディングコントリビューションによって駆動される、コミュニティのコラボレーションを可能にするサポートも提供する。
他の社会的な取り組みと同様に、この開発プロセスは倫理的な課題に直面しており、プロジェクトの持続可能性のリスクを負う可能性がある。
生産的でポジティブな環境を育むため、OSSプロジェクトは行動規範のデプロイをますます増加させており、コントリビュータ・コベナント(Contributor Covenant)が従うべき主要なモデルである、誠実で包括的な参加環境を保証するためのルールを定義している。
しかしながら、現在のアプローチの限界のため、これらの行動規範の監視と実施は難しい作業である。
本稿では,テキスト分類タスクのための有望な技術であるLarge Language Models (LLM) を用いて,OSSプロジェクトにおける非コーディングコントリビューションの倫理的品質を分類する手法を提案する。
コントリビュータ Covenant に基づいた倫理指標のセットを定義し,OSS の非コーディングコントリビューションにおける倫理的行動を評価するための分類手法を開発した。
関連論文リスト
- MERA Code: A Unified Framework for Evaluating Code Generation Across Tasks [56.34018316319873]
我々は,最新のLLMをロシア語で評価するためのベンチマークであるMERA Codeを提案する。
このベンチマークには、8つのプログラミング言語にまたがる11の評価タスクが含まれている。
我々はオープンなLLMとフロンティアAPIモデルを評価し、非英語言語における実用的なコーディングタスクの観点からそれらの制限を分析した。
論文 参考訳(メタデータ) (2025-07-16T14:31:33Z) - A Bot-based Approach to Manage Codes of Conduct in Open-Source Projects [0.3222802562733786]
本稿では,コントリビュータ契約に基づくOSSプロジェクトの行動規範を効果的に管理する手法を提案する。
私たちのソリューションはボットベースのソリューションとして実装されており、ボットは行動規範の定義、OSSプロジェクトの監視、倫理的ルールの実施に役立ちます。
論文 参考訳(メタデータ) (2025-03-07T14:50:02Z) - CROSS: A Contributor-Project Interaction Lifecycle Model for Open Source Software [2.9631016562930546]
Cross Modelは、オープンソースソフトウェアのための新しいコントリビュータ/プロジェクトインタラクションライフサイクルモデルである。
特にEoS/オフボードのシナリオにおいて、コントリビュータの関与に関するさまざまなアーキティパルケースを説明し、研究ギャップを強調します。
論文 参考訳(メタデータ) (2024-09-12T17:57:12Z) - How to Gain Commit Rights in Modern Top Open Source Communities? [14.72524623433377]
現代のOSSコミュニティにおけるコミッタ資格の政策と実践的実装について検討する。
我々は、9つのテーマに分類される26のコードからなるコミッタ資格の分類を構築した。
参加時間が経過すると,コミット権獲得の可能性が低下することがわかった。
論文 参考訳(メタデータ) (2024-05-03T01:23:06Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Semantic Communications for Artificial Intelligence Generated Content
(AIGC) Toward Effective Content Creation [75.73229320559996]
本稿では,AIGCとSemComの統合の概念モデルを開発する。
AIGC技術を利用した新しいフレームワークが,意味情報のためのエンコーダおよびデコーダとして提案されている。
このフレームワークは、生成されたさまざまなタイプのコンテンツ、要求される品質、活用される意味情報に適応することができる。
論文 参考訳(メタデータ) (2023-08-09T13:17:21Z) - Ethical Considerations and Policy Implications for Large Language
Models: Guiding Responsible Development and Deployment [48.72819550642584]
本稿では,コンテンツ生成における大規模言語モデル(LLM)の倫理的考察と意義について考察する。
生成AIプログラムの肯定的および否定的な使用の可能性を強調し、アウトプットに責任を割り当てる際の課題を探求する。
論文 参考訳(メタデータ) (2023-08-01T07:21:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。