論文の概要: Going Viral: Case Studies on the Impact of Protestware
- arxiv url: http://arxiv.org/abs/2401.16715v1
- Date: Tue, 30 Jan 2024 03:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:19:34.883497
- Title: Going Viral: Case Studies on the Impact of Protestware
- Title(参考訳): Going Viral: テストウェアの影響に関するケーススタディ
- Authors: Youmei Fan, Dong Wang, Supatsara Wattanakriengkrai, Hathaichanok
Damrongsiri, Christoph Treude, Hideaki Hata, Raula Gaikovina Kula
- Abstract要約: Colors.js と es5-ext という,一般的なセキュリティ脆弱性をベースラインとして議論する2つの有名なデモウェアケースについて検討する。
我々は、抗議ウェアについて議論する際に異なる物語を抽出するために、2万件以上の抗議関連投稿をテーマ分析する。
- 参考スコア(独自算出の注目度): 13.697165741749513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Maintainers are now self-sabotaging their work in order to take political or
economic stances, a practice referred to as "protestware". In this poster, we
present our approach to understand how the discourse about such an attack went
viral, how it is received by the community, and whether developers respond to
the attack in a timely manner. We study two notable protestware cases, i.e.,
Colors.js and es5-ext, comparing with discussions of a typical security
vulnerability as a baseline, i.e., Ua-parser, and perform a thematic analysis
of more than two thousand protest-related posts to extract the different
narratives when discussing protestware.
- Abstract(参考訳): 保守派は現在、政治的または経済的スタンスを取るために、自分たちの仕事を自己妨害している。
本ポスターでは,このような攻撃に関する談話がどのように広まり,コミュニティがどのように受け取り,開発者がその攻撃にタイムリーに反応するかを理解するためのアプローチを提案する。
我々は,2つの有名な抗議ウェア,Colors.js と es5-ext について,基本となるセキュリティ脆弱性,すなわち Ua-parser の議論との比較を行い,抗議ウェアについて議論する際に異なる物語を抽出するために2万件以上の抗議関連投稿をテーマ分析した。
関連論文リスト
- An Investigation into Protestware [3.236198583140341]
テストウェア(Protestware)は、抗議活動の組織化に使用できるソフトウェアである。
ロシア・ウクライナ戦争における最近の出来事は、新たな抗議活動の波を巻き起こした。
論文 参考訳(メタデータ) (2024-09-30T01:17:16Z) - Developer Reactions to Protestware in Open Source Software: The cases of color.js and es5.ext [13.043109610854646]
そこで我々は,2つの有名な抗議ウェア,すなわち color.js と es5-ext について検討した。
デモウェアの議論の分類を確立させることで、スタンスを表現し、技術的な緩和指示を提供するポストを特定できる。
この研究は、研究者と開発者の両方に洞察を与えながら、抗議ウェアの議論の微妙な風景に光を当てている。
論文 参考訳(メタデータ) (2024-09-24T02:26:48Z) - Adversarial Attacks on Multimodal Agents [73.97379283655127]
視覚対応言語モデル(VLM)は、現在、実環境でのアクションを可能にする自律的なマルチモーダルエージェントの構築に使用されている。
攻撃エージェントは、環境への限られたアクセスと知識により、以前の攻撃よりも困難であるにもかかわらず、マルチモーダルエージェントが新たな安全リスクを生じさせることを示す。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z) - SpeechGuard: Exploring the Adversarial Robustness of Multimodal Large Language Models [34.557309967708406]
本研究では,このような命令追従型音声モデルの潜在的な脆弱性を,敵対的攻撃や脱獄に対して検討する。
我々は、人間の関与なしに、ホワイトボックスとブラックボックスの攻撃設定の両方でジェイルブレイクSLMの逆例を生成するアルゴリズムを設計する。
本モデルでは,発話指示による対話データに基づいて,音声質問応答タスクにおける最先端のパフォーマンスを達成し,安全性と有用性の両方の指標で80%以上をスコア付けした。
論文 参考訳(メタデータ) (2024-05-14T04:51:23Z) - Discursive objection strategies in online comments: Developing a classification schema and validating its training [2.6603898952678167]
多くのアメリカ人は、誤情報、ヘイトスピーチ、ハラスメントは有害であり、ソーシャルメディアに不適切であると同意している。
われわれは、YouTubeとTwitterのトレンドニュースビデオに対する6500件以上のコメント回答のコンテンツ分析を行った。
我々は7つの異なる非帰的反対戦略を特定した。
論文 参考訳(メタデータ) (2024-05-13T19:39:00Z) - Leveraging the Context through Multi-Round Interactions for Jailbreaking Attacks [55.603893267803265]
大規模言語モデル(LLM)は、脱獄攻撃の影響を受けやすい。
脱獄攻撃は、攻撃クエリを微調整することで有害な情報を抽出することを目的としている。
我々は、コンテキストインタラクションアタックと呼ばれる新しい攻撃形式に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-14T13:45:19Z) - The defender's perspective on automatic speaker verification: An
overview [87.83259209657292]
自動話者検証(ASV)の信頼性は、スプーフィング攻撃の出現によって損なわれている。
本研究の目的は、これらの攻撃に対して使用される防御方法について、徹底的かつ体系的に概説することである。
論文 参考訳(メタデータ) (2023-05-22T08:01:59Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Dynamic Emotions of Supporters and Opponents of Anti-racism Movement
from George Floyd Protests [4.628652869726037]
本研究は、ジョージ・フロイドの死から始まった最近の反人種差別運動を、姿勢予測とアスペクトベース感情分析(ABSA)のレンズで実証的に検証する試みである。
まず、抗議活動の過程でツイートのスタンスが変わり、また、スタンスを維持しているユーザに比べて、スタンスをシフトしたユーザが増えている。
論文 参考訳(メタデータ) (2021-09-29T08:27:30Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。