論文の概要: Othered, Silenced and Scapegoated: Understanding the Situated Security
of Marginalised Populations in Lebanon
- arxiv url: http://arxiv.org/abs/2306.10149v1
- Date: Fri, 16 Jun 2023 19:36:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 00:04:57.102043
- Title: Othered, Silenced and Scapegoated: Understanding the Situated Security
of Marginalised Populations in Lebanon
- Title(参考訳): その他の無罪・無罪・無罪:レバノンにおけるマルギナライズド人口の治安の確保
- Authors: Jessica McClearn, Rikke Bjerg Jensen, Reem Talhouk
- Abstract要約: 我々は、紛争後のレバノンの状況の中で、セクショナリストの分裂、ガバナンスの失敗、経済崩壊によって形作られた仕事を整えています。
我々の研究は、レバノン政府の失敗に対してLGBTQI+がいかに人々や難民を識別するかを強調している。
政治指導者の責任をこれらのグループに移すことを目的とした、政府支援による暴力の扇動が、いかにデジタルセキュリティのリスクを増幅させるかを示す。
- 参考スコア(独自算出の注目度): 17.10104036777213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we explore the digital security experiences of marginalised
populations in Lebanon such as LGBTQI+ identifying people, refugees and women.
We situate our work in the post-conflict Lebanese context, which is shaped by
sectarian divides, failing governance and economic collapse. We do so through
an ethnographically informed study conducted in Beirut, Lebanon, in July 2022
and through interviews with 13 people with Lebanese digital and human rights
expertise. Our research highlights how LGBTQI+ identifying people and refugees
are scapegoated for the failings of the Lebanese government, while women who
speak out against such failings are silenced. We show how government-supported
incitements of violence aimed at transferring blame from the political
leadership to these groups lead to amplified digital security risks for already
at-risk populations. Positioning our work in broader sociological
understandings of security, we discuss how the Lebanese context impacts
identity and ontological security. We conclude by proposing to design for and
with positive security in post-conflict settings.
- Abstract(参考訳): 本稿では,レバノンにおけるLGBTQI+による住民,難民,女性を識別する疎外化人口のデジタルセキュリティ経験について検討する。
紛争後のレバノンの状況は、宗派の分裂、統治の失敗、経済崩壊によって形作られています。
我々は2022年7月にレバノンのベイルートで行われた民族誌学的にインフォームドされた調査と、レバノンのデジタルと人権の専門知識を持つ13人のインタビューを通じて実施している。
我々の研究は、レバノン政府の失敗に対してLGBTQI+がいかに人々と難民を識別するかを強調し、そのような失敗に反対する女性は沈黙している。
我々は、これらの集団に政治指導者からの非難を移すことを目的とした、政府支援による暴力の扇動が、既にリスクの高い人口に対するデジタルセキュリティのリスクを増幅させる方法を示している。
セキュリティに関する幅広い社会学的理解において我々の仕事を位置づけ、レバノンのコンテキストがアイデンティティとオントロジなセキュリティにどのように影響するかについて議論する。
我々は、紛争後の設定において、ポジティブなセキュリティを持つ設計を提案することで締めくくります。
関連論文リスト
- Arabic Dataset for LLM Safeguard Evaluation [62.96160492994489]
本研究では,アラビア語における大言語モデル(LLM)の安全性と,その言語的・文化的複雑さについて考察する。
本稿では, 直接攻撃, 間接攻撃, センシティブな単語による無害な要求を含む5,799の質問からなるアラブ地域固有の安全評価データセットを提案する。
論文 参考訳(メタデータ) (2024-10-22T14:12:43Z) - Multimodal Situational Safety [73.63981779844916]
マルチモーダル・シチュエーション・セーフティ(Multimodal situational Safety)と呼ばれる新しい安全課題の評価と分析を行う。
MLLMが言語やアクションを通じても安全に応答するためには、言語クエリが対応する視覚的コンテキスト内での安全性への影響を評価する必要があることが多い。
我々は,現在のMLLMの状況安全性能を評価するためのマルチモーダル状況安全ベンチマーク(MSSBench)を開発した。
論文 参考訳(メタデータ) (2024-10-08T16:16:07Z) - CYBERSECEVAL 3: Advancing the Evaluation of Cybersecurity Risks and Capabilities in Large Language Models [2.2779399250291577]
CYBERSECEVAL 3は、サードパーティに対するリスクと、アプリケーション開発者とエンドユーザに対するリスクという、2つの幅広いカテゴリの8つの異なるリスクを評価します。
これまでの研究と比較して、攻撃的セキュリティ機能に焦点を当てた新たな分野として、ソーシャルエンジニアリングの自動化、手動攻撃型サイバーオペレーションのスケーリング、自動攻撃型サイバーオペレーションがあります。
論文 参考訳(メタデータ) (2024-08-02T23:47:27Z) - Purple-teaming LLMs with Adversarial Defender Training [57.535241000787416]
本稿では,PAD(Adversarial Defender Training)を用いたPurple-teaming LLMを提案する。
PADは、赤チーム(アタック)技術と青チーム(セーフティトレーニング)技術を新たに取り入れることで、LSMを保護するために設計されたパイプラインである。
PADは、効果的な攻撃と堅牢な安全ガードレールの確立の両方において、既存のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2024-07-01T23:25:30Z) - Security Patchworking in Lebanon: Infrastructuring Across Failing
Infrastructures [13.04459271722538]
複数の障害インフラストラクチャに対応するために,レバノンの人々が日常的なセキュリティを確立し維持するために実施したインフラ構築作業について検討する。
分析を通じて,基本的ニーズの確保に必要なインフラ構築作業の可視化を実現する,セキュリティパッチワークの概念を開発する。
このような慣行は、しばしば新しい形の不安全をもたらす保護の異なるメカニズムに根ざしている。
論文 参考訳(メタデータ) (2023-10-25T20:12:20Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - SafetyBench: Evaluating the Safety of Large Language Models [54.878612385780805]
SafetyBenchは、大規模言語モデル(LLM)の安全性を評価するための包括的なベンチマークである。
11,435 の多様な選択質問が 7 つの異なるカテゴリーの安全問題にまたがっている。
ゼロショット設定と少数ショット設定の両方で、中国語と英語のLLMを25回以上テストしたところ、GPT-4よりも大幅にパフォーマンス上の優位性を示しました。
論文 参考訳(メタデータ) (2023-09-13T15:56:50Z) - Safety Assessment of Chinese Large Language Models [51.83369778259149]
大規模言語モデル(LLM)は、侮辱や差別的なコンテンツを生成し、誤った社会的価値を反映し、悪意のある目的のために使用されることがある。
安全で責任があり倫理的なAIの展開を促進するため、LLMによる100万の強化プロンプトとレスポンスを含むセーフティプロンプトをリリースする。
論文 参考訳(メタデータ) (2023-04-20T16:27:35Z) - LEBANONUPRISING: a thorough study of Lebanese tweets [0.0]
10月17日、レバノンは革命の開始を目撃し、レバノンアップライジングのハッシュタグはTwitter上でバイラルになった。
10月18日から21日までに10万のツイートからなるデータセットが収集された。
我々は、異なる機械学習アルゴリズムを用いて、レバノンアップライジングハッシュタグに関連するレバノン・アラビア語話者のツイートに対する感情分析を行った。
論文 参考訳(メタデータ) (2020-09-30T05:50:08Z) - Migration and Refugee Crisis: a Critical Analysis of Online Public
Perception [2.9005223064604078]
移住率と移民に対する恨みのレベルは、近代文明において重要な問題である。
我々は、EU難民危機に関連する大量のツイートの集合の中で、感情と関連する表現の文脈を分析します。
本研究は、移民に対するネガティブ感情の割合が極端に高く、一般ユーザーの間ではネガティブ感情の比率が大きく反映されていることを明らかにした。
論文 参考訳(メタデータ) (2020-07-20T02:04:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。