論文の概要: Othered, Silenced and Scapegoated: Understanding the Situated Security
of Marginalised Populations in Lebanon
- arxiv url: http://arxiv.org/abs/2306.10149v1
- Date: Fri, 16 Jun 2023 19:36:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 00:04:57.102043
- Title: Othered, Silenced and Scapegoated: Understanding the Situated Security
of Marginalised Populations in Lebanon
- Title(参考訳): その他の無罪・無罪・無罪:レバノンにおけるマルギナライズド人口の治安の確保
- Authors: Jessica McClearn, Rikke Bjerg Jensen, Reem Talhouk
- Abstract要約: 我々は、紛争後のレバノンの状況の中で、セクショナリストの分裂、ガバナンスの失敗、経済崩壊によって形作られた仕事を整えています。
我々の研究は、レバノン政府の失敗に対してLGBTQI+がいかに人々や難民を識別するかを強調している。
政治指導者の責任をこれらのグループに移すことを目的とした、政府支援による暴力の扇動が、いかにデジタルセキュリティのリスクを増幅させるかを示す。
- 参考スコア(独自算出の注目度): 17.10104036777213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we explore the digital security experiences of marginalised
populations in Lebanon such as LGBTQI+ identifying people, refugees and women.
We situate our work in the post-conflict Lebanese context, which is shaped by
sectarian divides, failing governance and economic collapse. We do so through
an ethnographically informed study conducted in Beirut, Lebanon, in July 2022
and through interviews with 13 people with Lebanese digital and human rights
expertise. Our research highlights how LGBTQI+ identifying people and refugees
are scapegoated for the failings of the Lebanese government, while women who
speak out against such failings are silenced. We show how government-supported
incitements of violence aimed at transferring blame from the political
leadership to these groups lead to amplified digital security risks for already
at-risk populations. Positioning our work in broader sociological
understandings of security, we discuss how the Lebanese context impacts
identity and ontological security. We conclude by proposing to design for and
with positive security in post-conflict settings.
- Abstract(参考訳): 本稿では,レバノンにおけるLGBTQI+による住民,難民,女性を識別する疎外化人口のデジタルセキュリティ経験について検討する。
紛争後のレバノンの状況は、宗派の分裂、統治の失敗、経済崩壊によって形作られています。
我々は2022年7月にレバノンのベイルートで行われた民族誌学的にインフォームドされた調査と、レバノンのデジタルと人権の専門知識を持つ13人のインタビューを通じて実施している。
我々の研究は、レバノン政府の失敗に対してLGBTQI+がいかに人々と難民を識別するかを強調し、そのような失敗に反対する女性は沈黙している。
我々は、これらの集団に政治指導者からの非難を移すことを目的とした、政府支援による暴力の扇動が、既にリスクの高い人口に対するデジタルセキュリティのリスクを増幅させる方法を示している。
セキュリティに関する幅広い社会学的理解において我々の仕事を位置づけ、レバノンのコンテキストがアイデンティティとオントロジなセキュリティにどのように影響するかについて議論する。
我々は、紛争後の設定において、ポジティブなセキュリティを持つ設計を提案することで締めくくります。
関連論文リスト
- ALERT: A Comprehensive Benchmark for Assessing Large Language Models' Safety through Red Teaming [64.86326523181553]
ALERTは、新しいきめ細かいリスク分類に基づいて安全性を評価するための大規模なベンチマークである。
脆弱性を特定し、改善を通知し、言語モデルの全体的な安全性を高めることを目的としている。
論文 参考訳(メタデータ) (2024-04-06T15:01:47Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Leveraging the Context through Multi-Round Interactions for Jailbreaking
Attacks [60.7432588386185]
大規模言語モデル(LLM)は、脱獄攻撃の影響を受けやすい。
脱獄攻撃は、攻撃クエリを微調整することで有害な情報を抽出することを目的としている。
我々は、コンテキストインタラクションアタックと呼ばれる新しい攻撃形式に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-14T13:45:19Z) - A Security Risk Taxonomy for Large Language Models [5.120567378386615]
本稿では,大規模言語モデルによるセキュリティリスクに着目し,現在の研究のギャップに対処する。
本研究は,ユーザモデル通信パイプラインに沿ったセキュリティリスクの分類法を提案する。
ターゲットと攻撃タイプによる攻撃を、プロンプトベースのインタラクションスキームに分類する。
論文 参考訳(メタデータ) (2023-11-19T20:22:05Z) - Cognitive Overload: Jailbreaking Large Language Models with Overloaded
Logical Thinking [60.78524314357671]
本研究では,大規模言語モデル(LLM)の認知的構造とプロセスをターゲットにした新しいジェイルブレイク攻撃のカテゴリについて検討する。
提案する認知的オーバーロードはブラックボックス攻撃であり、モデルアーキテクチャやモデルウェイトへのアクセスの知識は不要である。
AdvBenchとMasterKeyで実施された実験では、人気のあるオープンソースモデルであるLlama 2とプロプライエタリモデルであるChatGPTの両方を含む様々なLLMが、認知的オーバーロードによって妥協可能であることが明らかになった。
論文 参考訳(メタデータ) (2023-11-16T11:52:22Z) - Security Patchworking in Lebanon: Infrastructuring Across Failing
Infrastructures [13.04459271722538]
複数の障害インフラストラクチャに対応するために,レバノンの人々が日常的なセキュリティを確立し維持するために実施したインフラ構築作業について検討する。
分析を通じて,基本的ニーズの確保に必要なインフラ構築作業の可視化を実現する,セキュリティパッチワークの概念を開発する。
このような慣行は、しばしば新しい形の不安全をもたらす保護の異なるメカニズムに根ざしている。
論文 参考訳(メタデータ) (2023-10-25T20:12:20Z) - SafetyBench: Evaluating the Safety of Large Language Models with
Multiple Choice Questions [56.70459851230943]
SafetyBenchは、大規模言語モデル(LLM)の安全性を評価するための包括的なベンチマークである。
11,435 の多様な選択質問が 7 つの異なるカテゴリーの安全問題にまたがっている。
ゼロショット設定と少数ショット設定の両方で、中国語と英語のLLMを25回以上テストしたところ、GPT-4よりも大幅にパフォーマンス上の優位性を示しました。
論文 参考訳(メタデータ) (2023-09-13T15:56:50Z) - Safety Assessment of Chinese Large Language Models [51.83369778259149]
大規模言語モデル(LLM)は、侮辱や差別的なコンテンツを生成し、誤った社会的価値を反映し、悪意のある目的のために使用されることがある。
安全で責任があり倫理的なAIの展開を促進するため、LLMによる100万の強化プロンプトとレスポンスを含むセーフティプロンプトをリリースする。
論文 参考訳(メタデータ) (2023-04-20T16:27:35Z) - Investigating Concerns of Security and Privacy Among Rohingya Refugees
in Malaysia [3.706222947143855]
ロヒンギャ難民(Rohingya refugees)は、ミャンマーの少数民族である。
彼らは紛争が勃発した後、家を脱出せざるを得なかった。
他の人々はマレーシアに移住し、そこにやってきた人々は都市難民として町内に住んでいた。
論文 参考訳(メタデータ) (2023-04-04T08:14:41Z) - LEBANONUPRISING: a thorough study of Lebanese tweets [0.0]
10月17日、レバノンは革命の開始を目撃し、レバノンアップライジングのハッシュタグはTwitter上でバイラルになった。
10月18日から21日までに10万のツイートからなるデータセットが収集された。
我々は、異なる機械学習アルゴリズムを用いて、レバノンアップライジングハッシュタグに関連するレバノン・アラビア語話者のツイートに対する感情分析を行った。
論文 参考訳(メタデータ) (2020-09-30T05:50:08Z) - Migration and Refugee Crisis: a Critical Analysis of Online Public
Perception [2.9005223064604078]
移住率と移民に対する恨みのレベルは、近代文明において重要な問題である。
我々は、EU難民危機に関連する大量のツイートの集合の中で、感情と関連する表現の文脈を分析します。
本研究は、移民に対するネガティブ感情の割合が極端に高く、一般ユーザーの間ではネガティブ感情の比率が大きく反映されていることを明らかにした。
論文 参考訳(メタデータ) (2020-07-20T02:04:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。