論文の概要: Textual analysis of End User License Agreement for red-flagging potentially malicious software
- arxiv url: http://arxiv.org/abs/2403.09715v1
- Date: Mon, 11 Mar 2024 20:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 21:54:39.557420
- Title: Textual analysis of End User License Agreement for red-flagging potentially malicious software
- Title(参考訳): 悪意のあるソフトウェアをレッドフラッグするエンドユーザーライセンス契約書のテキスト解析
- Authors: Behraj Khan, Tahir Syed, Zeshan Khan, Muhammad Rafi,
- Abstract要約: EULAには、法的反感を避けるための情報が含まれている。
エンドユーザは、ドキュメントの長さのため、これらのEULAを読まない。
アンサンブル学習を用いて、EULAを5つの異なるテキスト要約手法を用いて、良心または悪意として分類する。
- 参考スコア(独自算出の注目度): 0.9374652839580183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: New software and updates are downloaded by end users every day. Each dowloaded software has associated with it an End Users License Agreements (EULA), but this is rarely read. An EULA includes information to avoid legal repercussions. However,this proposes a host of potential problems such as spyware or producing an unwanted affect in the target system. End users do not read these EULA's because of length of the document and users find it extremely difficult to understand. Text summarization is one of the relevant solution to these kind of problems. This require a solution which can summarize the EULA and classify the EULA as "Benign" or "Malicious". We propose a solution in which we have summarize the EULA and classify the EULA as "Benign" or "Malicious". We extract EULA text of different sofware's then we classify the text using eight different supervised classifiers. we use ensemble learning to classify the EULA as benign or malicious using five different text summarization methods. An accuracy of $95.8$\% shows the effectiveness of the presented approach.
- Abstract(参考訳): 新しいソフトウェアやアップデートは、エンドユーザによって毎日ダウンロードされます。
各ドーロードされたソフトウェアは、End Users License Agreements (EULA) に関連付けられているが、これはめったに読まれない。
EULAには、法的反感を避けるための情報が含まれている。
しかし、これはスパイウェアや、ターゲットシステムにおける望ましくない影響を生み出すような潜在的な問題を多数提案する。
エンドユーザは、ドキュメントの長さのため、これらのEULAを読むことができません。
テキスト要約は、この種の問題に対する関連する解決策の1つである。
これはEULAを要約し、EULAを"Benign"または"Malicious"に分類できるソリューションを必要とする。
我々は、EULAを要約し、EULAを「ベニグニ(Benign)」「マシシシ(Malicious)」と分類するソリューションを提案する。
異なるソフウェアのEULAテキストを抽出し、8つの異なる教師付き分類器を用いてテキストを分類する。
アンサンブル学習を用いて、EULAを5つの異なるテキスト要約手法を用いて、良心または悪意として分類する。
955.8$\%の精度は、提示されたアプローチの有効性を示している。
関連論文リスト
- LLMs and Memorization: On Quality and Specificity of Copyright Compliance [0.0]
大規模言語モデル(LLM)のメモリ化が懸念されている。
LLMは、著作権のある作品を含むトレーニングデータの一部を容易に再現できることが示されている。
これは、欧州AI法と同様に、既存の著作権法に違反している可能性があるため、解決すべき重要な問題である。
論文 参考訳(メタデータ) (2024-05-28T18:01:52Z) - Protecting Copyrighted Material with Unique Identifiers in Large Language Model Training [55.321010757641524]
大きな言語モデル(LLM)のトレーニングに関する主要な公的な懸念は、著作権のあるオンラインテキストを悪用するかどうかである。
事前の会員推定法は、大量のトレーニングデータに類似した例によって誤解されることがある。
本稿では,Webユーザとコンテンツプラットフォームがtextbftextitunique 識別子を使用することを推奨する代替のtextitinsert-and-detection 手法を提案する。
論文 参考訳(メタデータ) (2024-03-23T06:36:32Z) - Unfair TOS: An Automated Approach using Customized BERT [0.0]
本稿では,SVC(Support Vector)と併用した前例のないカスタムBERTファインタニングに基づいて,TOS文書から不公平な条項検出を行う。
本研究は,不公平な節検出におけるマクロF1スコア0.922の有能な性能を示すとともに,各タグによる不公平な節の分類においても優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-20T10:42:15Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - WatME: Towards Lossless Watermarking Through Lexical Redundancy [58.61972059246715]
本研究では,認知科学レンズを用いた大規模言語モデル(LLM)の異なる機能に対する透かしの効果を評価する。
透かしをシームレスに統合するための相互排他型透かし(WatME)を導入する。
論文 参考訳(メタデータ) (2023-11-16T11:58:31Z) - A Robust Semantics-based Watermark for Large Language Model against Paraphrasing [50.84892876636013]
大規模言語モデル(LLM)は、様々な自然言語処理において優れた能力を示している。
LLMは不適切にも違法にも使用できるという懸念がある。
本稿ではセマンティクスに基づく透かしフレームワークSemaMarkを提案する。
論文 参考訳(メタデータ) (2023-11-15T06:19:02Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - Are You Copying My Model? Protecting the Copyright of Large Language
Models for EaaS via Backdoor Watermark [58.60940048748815]
企業は大規模な言語モデル(LLM)に基づいたEmbeddding as a Service(E)の提供を開始した。
Eはモデル抽出攻撃に弱いため、LLMの所有者に重大な損失をもたらす可能性がある。
埋め込みにバックドアを埋め込むEmbMarkerという埋め込み透かし手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T08:28:54Z) - Fine-Grained Element Identification in Complaint Text of Internet Fraud [47.249423877146604]
本稿では,インターネット不正の苦情文をきめ細かな方法で分析することを提案する。
苦情文には様々な機能を持つ複数の節が含まれていることを考慮し,各節の役割を特定し,異なる種類の不正要素に分類することを提案する。
論文 参考訳(メタデータ) (2021-08-19T13:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。