論文の概要: Detecting and Fixing Violations of Modification Terms in Open Source
Licenses during Forking
- arxiv url: http://arxiv.org/abs/2310.07991v1
- Date: Thu, 12 Oct 2023 02:37:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 03:01:14.188100
- Title: Detecting and Fixing Violations of Modification Terms in Open Source
Licenses during Forking
- Title(参考訳): フォーク中のオープンソースライセンスにおける修正条項違反の検出と修正
- Authors: Kaifeng Huang, Yingfeng Xia, Bihuan Chen, Zhuotong Zhou, Jin Guo, Xin
Peng
- Abstract要約: まず、47のオープンソースライセンスで修正条項を実証的に特徴付けます。
この研究に触発されて、私たちはLiVoを設計し、フォーク中のオープンソースライセンスの修正条項の違反を自動的に検出し、修正します。
- 参考スコア(独自算出の注目度): 4.682961105225832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open source software brings benefit to software community, but also
introduces legal risks caused by license violations, which result in serious
consequences such as lawsuits and financial losses. To mitigate legal risks,
some approaches have been proposed to identify licenses, detect license
incompatibilities and inconsistencies, and recommend licenses. As far as we
know, however, there is no prior work to understand modification terms in open
source licenses or to detect and fix violations of modification terms. To
bridge this gap, we first empirically characterize modification terms in 47
open source licenses. These licenses all require certain forms of "notice" to
describe the modifications made to the original work. Inspired by our study, we
then design LiVo to automatically detect and fix violations of modification
terms in open source licenses during forking. Our evaluation has shown the
effectiveness and efficiency of LiVo. 18 pull requests of fixing modification
term violations have received positive responses. 8 have been merged.
- Abstract(参考訳): オープンソースソフトウェアはソフトウェアコミュニティに利益をもたらすが、ライセンス違反による法的リスクも生じ、訴訟や金銭的損失などの重大な結果をもたらす。
法的なリスクを軽減するために、ライセンスを特定し、ライセンスの不互換性と矛盾を検出し、ライセンスを推奨するアプローチが提案されている。
しかし、私たちが知る限り、オープンソースライセンスの修正条項を理解したり、修正条項違反を検出し修正したりする以前の作業はありません。
このギャップを埋めるために、まず47のオープンソースライセンスの修正項を経験的に特徴付ける。
これらのライセンスはすべて、オリジナルの作品に施された変更を記述するために、ある種の「通知」を必要とする。
この研究に触発されて、オープンソースライセンスの修正条項違反を自動的に検出し修正するためにlivoを設計しました。
評価の結果,LiVoの有効性と有効性が確認された。
修正期間違反に対するプルリクエストが18件,肯定的な回答が得られた。
8両が合併した。
関連論文リスト
- Private Online Community Detection for Censored Block Models [60.039026645807326]
検閲ブロックモデル(CBM)を用いた動的コミュニティにおけるプライベートオンライン変更検出問題について検討する。
ユーザのプライバシーを維持しつつ,コミュニティ構造の変化を識別するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-09T12:35:57Z) - JailbreakBench: An Open Robustness Benchmark for Jailbreaking Large Language Models [123.66104233291065]
ジェイルブレイク攻撃は、大きな言語モデル(LLM)が有害、非倫理的、またはその他の不快なコンテンツを生成する原因となる。
JailbreakBenchは、jailbreak攻撃を評価するためのオープンソースのベンチマークである。
論文 参考訳(メタデータ) (2024-03-28T02:44:02Z) - GenAudit: Fixing Factual Errors in Language Model Outputs with Evidence [64.95492752484171]
GenAudit - 文書基底タスクの事実チェック LLM 応答を支援するためのツール。
これらのタスクを実行するためにモデルをトレーニングし、ユーザに対して推奨の編集とエビデンスを示すインタラクティブインターフェースを設計します。
システムによってほとんどのエラーがフラグ付けされていることを保証するため,精度への影響を最小限に抑えつつエラーリコールを増大させる手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T21:45:55Z) - On the Standardization of Behavioral Use Clauses and Their Adoption for
Responsible Licensing of AI [27.748532981456464]
2018年、AI資産をリリースするためのフレームワークを提供するために、行動利用条項付きのライセンスが提案された。
2023年末時点で、4万のソフトウェアとモデルリポジトリの順序で、責任あるAIライセンスが採用されている。
論文 参考訳(メタデータ) (2024-02-07T22:29:42Z) - Catch the Butterfly: Peeking into the Terms and Conflicts among SPDX
Licenses [16.948633594354412]
ソフトウェア開発におけるサードパーティライブラリ(TPL)は、モダンなソフトウェアの開発を加速している。
開発者は必然的にTPLのライセンスを侵害し、法的問題を引き起こす可能性がある。
幅広い主要なライセンスを含む高品質なライセンスデータセットが必要である。
論文 参考訳(メタデータ) (2024-01-19T11:27:34Z) - LiSum: Open Source Software License Summarization with Multi-Task
Learning [16.521420821183995]
オープンソースソフトウェア(OSS)ライセンスは、ユーザーが合法的にソフトウェアを再利用、修正、配布できる条件を規制している。
コミュニティには様々なOSSライセンスがあり、形式言語で書かれている。
ユーザスタディとコミュニティにおけるライセンスの急速な成長に動機付けられ,自動ライセンス要約に向けた最初の研究を提案する。
論文 参考訳(メタデータ) (2023-09-10T16:43:51Z) - LiResolver: License Incompatibility Resolution for Open Source Software [13.28021004336228]
LiResolverは、オープンソースソフトウェアのライセンス不互換性問題を解決するための、きめ細かい、スケーラブルで柔軟なツールです。
総合的な実験ではLiResolverの有効性が示され、不整合問題の局所化には4.09%の偽陽性(FP)と0.02%の偽陰性(FN)が有効である。
論文 参考訳(メタデータ) (2023-06-26T13:16:09Z) - Lessons from Formally Verified Deployed Software Systems (Extended version) [65.69802414600832]
本稿は、正式に認証されたシステムを作成し、実際に使用するためにデプロイした各種のアプリケーション分野のプロジェクトについて検討する。
使用する技術、適用の形式、得られた結果、そしてソフトウェア産業が形式的な検証技術やツールの恩恵を受ける能力について示すべき教訓を考察する。
論文 参考訳(メタデータ) (2023-01-05T18:18:46Z) - FAT Forensics: A Python Toolbox for Implementing and Deploying Fairness,
Accountability and Transparency Algorithms in Predictive Systems [69.24490096929709]
FAT ForensicsというオープンソースのPythonパッケージを開発しました。
予測アルゴリズムの重要な公平性、説明可能性、透明性を検査することができる。
私たちのツールボックスは、予測パイプラインのすべての要素を評価することができます。
論文 参考訳(メタデータ) (2022-09-08T13:25:02Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z) - Can I use this publicly available dataset to build commercial AI
software? Most likely not [8.853674186565934]
商用AIソフトウェアを構築するために、与えられた公開データセットを使用する場合、ライセンスコンプライアンス違反の可能性を評価するための新しいアプローチを提案する。
その結果,これらの6つの研究データセットのうち5つは,ライセンス違反のリスクがあることが判明した。
論文 参考訳(メタデータ) (2021-11-03T17:44:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。