論文の概要: Exploring the Risks and Challenges of National Electronic Identity (NeID) System
- arxiv url: http://arxiv.org/abs/2310.15813v1
- Date: Tue, 24 Oct 2023 13:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 14:05:29.087234
- Title: Exploring the Risks and Challenges of National Electronic Identity (NeID) System
- Title(参考訳): 国家電子アイデンティティ(NeID)システムのリスクと課題
- Authors: Jide Edu, Mark Hooper, Carsten Maple, Jon Crowcroft,
- Abstract要約: 我々は、NeIDリスクの異なるカテゴリについて議論し、これらのシステムのデプロイを成功させる方法について検討する。
リスク軽減のためのベストプラクティスとして、強力なセキュリティ対策の実施、定期的なリスク評価の実行、システムの設計と実装における利害関係者の関与などを挙げる。
- 参考スコア(独自算出の注目度): 8.93312157123729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many countries have embraced national electronic identification (NeID) systems, recognising their potential to foster a fair, transparent, and well-governed society by ensuring the secure verification of citizens' identities. The inclusive nature of NeID empowers people to exercise their rights while holding them accountable for fulfilling their obligations. Nevertheless, the development and implementation of these complex identity-verification systems have raised concerns regarding security, privacy, and exclusion. In this study, we discuss the different categories of NeID risk and explore the successful deployment of these systems, while examining how the specific risks and other challenges posed by this technology are addressed. Based on the review of the different NeID systems and the efforts made to mitigate the unique risks and challenges presented within each deployment, we highlighted the best practices for mitigating risk, including implementing strong security measures, conducting regular risk assessments, and involving stakeholders in the design and implementation of the system.
- Abstract(参考訳): 多くの国は、国民の身元を確実に確認することで、公正で透明で、自治的な社会を育む可能性を認識し、国家電子識別システム(NeID)を採用してきた。
NeIDの包括的性質は、義務を履行する責任を負いながら権利を行使する権限を人々に与えます。
それでも、これらの複雑なアイデンティティ検証システムの開発と実装は、セキュリティ、プライバシ、排除に関する懸念を引き起こしている。
本研究では,NeIDリスクの異なるカテゴリについて論じ,これらのシステムの展開を成功させるとともに,この技術によって引き起こされる特定のリスクやその他の課題にどのように対処するかを考察する。
異なるNeIDシステムのレビューと、各デプロイメントで提示されるユニークなリスクと課題を軽減するための取り組みに基づいて、強いセキュリティ対策の実施、定期的なリスク評価の実行、システムの設計と実装におけるステークホルダーの関与など、リスクを軽減するためのベストプラクティスを強調した。
関連論文リスト
- Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - RiskBench: A Scenario-based Benchmark for Risk Identification [4.263035319815899]
この研究は、リスク識別、ダイナミックなトラフィック参加者と予期せぬイベントから生じるリスクを特定し分析するプロセスに焦点を当てている。
リスク識別のための大規模シナリオベースベンチマークである textbfRiskBench を紹介する。
我々は,(1)リスクの検出と発見,(2)リスクの予測,(3)意思決定の促進を行う10のアルゴリズムの能力を評価する。
論文 参考訳(メタデータ) (2023-12-04T06:21:22Z) - An Impact and Risk Assessment Framework for National Electronic Identity (eID) Systems [8.93312157123729]
本稿では、社会的、経済的、政治的文脈を含む幅広い要因を考慮に入れた枠組みを提案する。
これは、eIDシステムに対するリスクをよりよく評価するための総合的なプラットフォームを提供する。
論文 参考訳(メタデータ) (2023-10-24T12:33:10Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Concrete Safety for ML Problems: System Safety for ML Development and
Assessment [0.758305251912708]
信頼感、意図しない社会的危害、容認できない社会的および倫理的違反に対する懸念は、MLの進歩の約束を損なう。
システム安全工学は、複雑度の高い社会技術システムにおいても、リスクを特定し管理する実績のある、確立された分野である。
論文 参考訳(メタデータ) (2023-02-06T18:02:07Z) - Foveate, Attribute, and Rationalize: Towards Physically Safe and
Trustworthy AI [76.28956947107372]
包括的不安全テキストは、日常的なシナリオから生じる可能性のある特定の関心領域であり、有害なテキストを検出するのが困難である。
安全の文脈において、信頼に値する合理的な生成のために外部知識を活用する新しいフレームワークであるFARMを提案する。
実験の結果,FARMはSafeTextデータセットの最先端結果を得ることができ,安全性の分類精度が5.9%向上したことがわかった。
論文 参考訳(メタデータ) (2022-12-19T17:51:47Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [9.262092738841979]
AIベースのシステムは、組織、個人、社会に価値を提供するために、ますます活用されている。
リスクは、提案された規制、訴訟、および一般的な社会的懸念につながった。
本稿では,定量的AIリスクアセスメントの概念について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z) - Biometrics: Trust, but Verify [49.9641823975828]
バイオメトリック認識は、世界中のさまざまなアプリケーションに爆発しました。
生体認証システムの様々なサブモジュールに関する多くの顕著な問題と懸念があります。
論文 参考訳(メタデータ) (2021-05-14T03:07:25Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。