論文の概要: An Empirical Analysis on the Use and Reporting of National Security Letters
- arxiv url: http://arxiv.org/abs/2403.02768v4
- Date: Sat, 01 Feb 2025 22:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 17:56:55.803203
- Title: An Empirical Analysis on the Use and Reporting of National Security Letters
- Title(参考訳): 国家安全保障書簡の使用と報告に関する実証分析
- Authors: Alex Bellon, Miro Haller, Andrey Labunets, Enze Liu, Stefan Savage,
- Abstract要約: 我々は国家安全保障書簡(NSL)の文脈でその現象を評価する。
NSL(英: NSL)は、アメリカ合衆国連邦政府の一部に、国家安全保障上の目的のために特定の情報を要求する権限を付与する法的手続きの一種である。
我々は,NSL使用に関する公開データの全範囲を慎重に分析することにより,透明性メカニズムがいかにうまく機能するかを評価する。
- 参考スコア(独自算出の注目度): 4.554500454490082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Government investigatory and surveillance powers are important tools for examining crime and protecting public safety. However, since these tools must be employed in secret, it can be challenging to identify abuses or changes in use that could be of significant public interest. In this paper, we evaluate this phenomenon in the context of National Security Letters (NSLs). NSLs are a form of legal process that empowers parts of the United States federal government to request certain pieces of information for national security purposes. After initial concerns about the lack of public oversight, Congress worked to increase transparency by mandating government agencies to publish aggregated statistics on the NSL usage and by allowing the private sector to report information on NSLs in transparency reports. The implicit goal is that these transparency mechanisms should deter large-scale abuse by making it visible. We evaluate how well these mechanisms work by carefully analyzing the full range of publicly available data related to NSL use. Our findings suggest that they may not lead to the desired public scrutiny as we find published information requires significant manual effort to collect and parse data due to the lack of structure and context. Moreover, we discovered mistakes (subsequently fixed after our reporting to the ODNI), which suggests a lack of active auditing. Taken together, our case study of NSLs provides insights and suggestions for the successful construction of transparency mechanisms that enable effective public auditing.
- Abstract(参考訳): 政府の調査と監視の権限は、犯罪を調査し、公共の安全を守るための重要な手段である。
しかし、これらのツールを秘密裏に使わなければならないため、公衆の関心をひくような乱用や利用の変化を特定することは困難である。
本稿では,この現象を国家安全保障書簡(NSL)の文脈で評価する。
NSL(英: NSL)は、アメリカ合衆国連邦政府の一部に、国家安全保障上の目的のために特定の情報を要求する権限を与える法的手続きの形式である。
公的監視の欠如に関する最初の懸念の後、議会は政府機関にNSLの使用に関する集計統計を公表するよう強制し、また民間部門がNSLに関する情報を透明性レポートに報告することを許可することで透明性の向上に努めた。
暗黙の目標は、これらの透明性メカニズムが、それを見える化することによって、大規模な悪用を抑えることだ。
NSL使用に関する公開データの全範囲を慎重に分析することにより,これらのメカニズムの有効性を評価する。
情報公開には,構造や文脈の欠如によるデータの収集・解析に多大な手作業が必要となるため,これらが望まれる公衆の監視に繋がらない可能性が示唆された。
また,ODNIへの報告後に修正した誤りも発見され,アクティブ監査の欠如が示唆された。
NSLのケーススタディは、効果的な公衆監査を可能にする透明性メカニズムの構築を成功させるための洞察と提案を提供する。
関連論文リスト
- Balancing Confidentiality and Transparency for Blockchain-based Process-Aware Information Systems [46.404531555921906]
機密性と透明性の両立を目的とした,ブロックチェーンベースのPAISアーキテクチャを提案する。
スマートコントラクトは公開インタラクションを制定、強制、保存し、属性ベースの暗号化技術は機密情報へのアクセス許可を指定するために採用されている。
論文 参考訳(メタデータ) (2024-12-07T20:18:36Z) - Supply Chain Insecurity: The Lack of Integrity Protection in SBOM Solutions [0.0]
SBOM(Software Bill of Materials)は、ソフトウェアサプライチェーンのセキュリティを確保するための最重要事項である。
ビデン大統領が発した大統領令により、SBOMの採用は米国内で義務化されている。
我々は、SBOMのアウトプットに組み込むことができる信頼について、より深く、体系的に調査する。
論文 参考訳(メタデータ) (2024-12-06T15:52:12Z) - The GDPR's Rules on Data Breaches: Analysing Their Rationales and Effects [1.8499314936771563]
データ漏洩通知義務は、組織をより良いセキュリティに導くことができる。
また、人々が自分の利益を守る可能性を非現実的に期待するべきではないと警告している。
最後に、この論文は、データ保護当局に対して、報告されたデータ漏洩に関するさらなる情報を公開するよう求めている。
論文 参考訳(メタデータ) (2024-10-08T14:43:15Z) - Granularity is crucial when applying differential privacy to text: An investigation for neural machine translation [13.692397169805806]
差分プライバシー(DP)は、NLPでますます人気が高まっている。
DPが適用される粒度の選択はしばしば無視される。
以上の結果から, 文書レベルのNMTシステムは, メンバーシップ推論攻撃に対する耐性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-07-26T14:52:37Z) - Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy [1.999925939110439]
我々は、2020年国勢調査のための情報開示回避システムにおいて、米国国勢調査局による差分プライバシーの採用について検討する。
このケーススタディは、技術的なシフトが価値をどう意味するかについての理解を深めようとしている。
このケーススタディから,アルゴリズムの透明性と参加に関する理解を深めるための3つの教訓を提示する。
論文 参考訳(メタデータ) (2024-05-29T15:29:16Z) - FedSC: Provable Federated Self-supervised Learning with Spectral Contrastive Objective over Non-i.i.d. Data [26.81377738626344]
我々は、スペクトルコントラストの目的に基づいて、FedSCという証明可能なFedSSLアルゴリズムを提案する。
FedSCでは、クライアントは定期的にモデルの重みに加えて、データ表現の相関行列を共有する。
我々は、収束と余分なプライバシー漏洩に関する理論的分析を提供する。
論文 参考訳(メタデータ) (2024-05-07T02:12:38Z) - Decoding the Digital Fine Print: Navigating the potholes in Terms of service/ use of GenAI tools against the emerging need for Transparent and Trustworthy Tech Futures [0.0]
この研究は、特定のGenAIにおいて、ユーザの信頼を育み、AIの文脈における情報的意思決定を促進するために、明確で理解不能なサービス用語が果たす重要な役割について調査する。
これは、複雑な法的用語と詳細な細かな印刷によって提示される障害を強調しており、これは真のユーザの同意と会話を妨げる。
発見は文書品質の矛盾と変動を示し、開示の慣行における統一性の要求が押し寄せていることを示している。
論文 参考訳(メタデータ) (2024-03-26T04:54:53Z) - Foundation Model Transparency Reports [61.313836337206894]
本稿では,ソーシャルメディアにおける透明性レポートの実践を参考に,基礎モデル透明性レポートを提案する。
ソーシャルメディアの透明性レポートの成功と欠点から、6つの設計原則を特定します。
十分に設計された透明性レポートは、規制要件の重複によるコンプライアンスコストの低減につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-26T03:09:06Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - Leveraging Large Language Models for Topic Classification in the Domain
of Public Affairs [65.9077733300329]
大規模言語モデル (LLM) は公務員文書の分析を大幅に強化する可能性を秘めている。
LLMは、公共の分野など、ドメイン固有のドキュメントを処理するのに非常に役立ちます。
論文 参考訳(メタデータ) (2023-06-05T13:35:01Z) - Examining risks of racial biases in NLP tools for child protective
services [78.81107364902958]
児童保護サービス(CPS)に焦点をあてる。
この設定で確立された人種的偏見を考えると、NLPの展開は人種格差を増大させる可能性がある。
我々は、NERモデルにおける一貫したアルゴリズムの不公平性、コア参照解決モデルにおけるアルゴリズムの不公平性、およびリスク予測における人種バイアスの悪化の証拠を文書化している。
論文 参考訳(メタデータ) (2023-05-30T21:00:47Z) - More Data Types More Problems: A Temporal Analysis of Complexity,
Stability, and Sensitivity in Privacy Policies [0.0]
データブローカーとデータプロセッサは、消費者データを収集し、購入し、販売することで利益を得る、数十億ドル規模の産業の一部である。
しかし、データ収集業界には、どのような種類のデータが収集、使用、販売されているかを理解するのが難しくなる透明性がほとんどありません。
論文 参考訳(メタデータ) (2023-02-17T15:21:24Z) - User-Centered Security in Natural Language Processing [0.7106986689736825]
自然言語処理(NLP)におけるユーザ中心のセキュリティの枠組みの提案
NLP内の2つのセキュリティドメインに重点を置いている。
論文 参考訳(メタデータ) (2023-01-10T22:34:19Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - How to keep text private? A systematic review of deep learning methods
for privacy-preserving natural language processing [0.38073142980732994]
記事は2016年から2020年にかけて発行されたプライバシー保護NLPに関する60以上の方法を体系的にレビューしている。
本稿では,既存の手法を3つのカテゴリに分類する新しい分類法を提案する。
我々は、データトレーサビリティ、オーバーヘッドデータセットサイズ、埋め込みにおける人間のバイアスの頻度に関するプライバシー保護NLPのオープンな課題について論じる。
論文 参考訳(メタデータ) (2022-05-20T11:29:44Z) - Robust Deep Semi-Supervised Learning: A Brief Introduction [63.09703308309176]
半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することにより、学習性能を向上させることを目的としている。
ディープモデルによるSSLは、標準ベンチマークタスクで成功したことが証明されている。
しかし、それらは現実世界のアプリケーションにおける様々な堅牢性に対する脅威に対して依然として脆弱である。
論文 参考訳(メタデータ) (2022-02-12T04:16:41Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Achieving Transparency Report Privacy in Linear Time [1.9981375888949475]
我々はまず,公開atrにおける透明性と公平性対策の展開によって引き起こされる潜在的なプライバシーリスクを調査し,実証する。
そこで本研究では,標準線形分数プログラミング(LFP)理論に基づく線形時間最適プライバシスキームを提案し,ATRを発表する。
当機構が引き起こすプライバシー・ユーティリティのトレードオフを定量化し、プライバシーの乱用がATRの公正性対策に与える影響を分析します。
論文 参考訳(メタデータ) (2021-03-31T22:05:10Z) - Second layer data governance for permissioned blockchains: the privacy
management challenge [58.720142291102135]
新型コロナウイルス(COVID-19)やエボラウイルス(エボラ出血熱)のようなパンデミックの状況では、医療データを共有することに関連する行動は、大規模な感染を避け、死亡者を減らすために重要である。
この意味において、許可されたブロックチェーン技術は、スマートコントラクトが管理する不変で統一された分散データベースを通じて、データのオーナシップ、透明性、セキュリティを提供する権利をユーザに与えるために登場します。
論文 参考訳(メタデータ) (2020-10-22T13:19:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。