論文の概要: Personhood credentials: Artificial intelligence and the value of privacy-preserving tools to distinguish who is real online
- arxiv url: http://arxiv.org/abs/2408.07892v3
- Date: Mon, 26 Aug 2024 19:02:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 18:38:45.044688
- Title: Personhood credentials: Artificial intelligence and the value of privacy-preserving tools to distinguish who is real online
- Title(参考訳): 人物認証: 人工知能とプライバシ保護ツールの価値
- Authors: Steven Adler, Zoë Hitzig, Shrey Jain, Catherine Brewer, Wayne Chang, Renée DiResta, Eddy Lazzarin, Sean McGregor, Wendy Seltzer, Divya Siddarth, Nouran Soliman, Tobin South, Connor Spelliscy, Manu Sporny, Varya Srivastava, John Bailey, Brian Christian, Andrew Critch, Ronnie Falcon, Heather Flanagan, Kim Hamilton Duffy, Eric Ho, Claire R. Leibowicz, Srikanth Nadhamuni, Alan Z. Rozenshtein, David Schnurr, Evan Shapiro, Lacey Strahm, Andrew Trask, Zoe Weinberg, Cedric Whitney, Tom Zick,
- Abstract要約: 悪質な俳優は長い間、不正行為、偽情報拡散、その他の偽装的なスキームの実行に誤解を招くアイデンティティを使用してきた。
ますます有能なAIの出現により、悪いアクターは彼らの活動の潜在的な規模と効果を増幅することができる。
我々は、この課題に対処する新しいツールの価値を分析する:「個人認証」(PHC)。
PHCは、ユーザーに対して、個人情報を開示することなく、実際の人間(AIではなく)をオンラインサービスに示すことを可能にする。
- 参考スコア(独自算出の注目度): 5.365346373228897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anonymity is an important principle online. However, malicious actors have long used misleading identities to conduct fraud, spread disinformation, and carry out other deceptive schemes. With the advent of increasingly capable AI, bad actors can amplify the potential scale and effectiveness of their operations, intensifying the challenge of balancing anonymity and trustworthiness online. In this paper, we analyze the value of a new tool to address this challenge: "personhood credentials" (PHCs), digital credentials that empower users to demonstrate that they are real people -- not AIs -- to online services, without disclosing any personal information. Such credentials can be issued by a range of trusted institutions -- governments or otherwise. A PHC system, according to our definition, could be local or global, and does not need to be biometrics-based. Two trends in AI contribute to the urgency of the challenge: AI's increasing indistinguishability from people online (i.e., lifelike content and avatars, agentic activity), and AI's increasing scalability (i.e., cost-effectiveness, accessibility). Drawing on a long history of research into anonymous credentials and "proof-of-personhood" systems, personhood credentials give people a way to signal their trustworthiness on online platforms, and offer service providers new tools for reducing misuse by bad actors. In contrast, existing countermeasures to automated deception -- such as CAPTCHAs -- are inadequate against sophisticated AI, while stringent identity verification solutions are insufficiently private for many use-cases. After surveying the benefits of personhood credentials, we also examine deployment risks and design challenges. We conclude with actionable next steps for policymakers, technologists, and standards bodies to consider in consultation with the public.
- Abstract(参考訳): 匿名性はオンラインの重要な原則である。
しかし、悪質な俳優は長年、不正行為、偽情報拡散、その他の偽造行為に誤認した身元を使っていた。
ますます有能なAIの出現により、悪役は彼らの活動の潜在的な規模と効果を増幅し、オンラインで匿名性と信頼性のバランスをとるという課題を強化することができる。
本稿では,この課題に対処する新たなツールの価値を分析する。個人認証(PHC) – 個人情報を開示することなく,ユーザが実際の人間(AIではなく)であることをオンラインサービスに示すためのデジタル認証情報である。
このような資格は、様々な信頼できる機関、政府、その他の機関によって発行することができる。
我々の定義によれば、PHCシステムは局所的あるいはグローバル的であり、バイオメトリックスに基づくものではない。
AIのオンラインの人々(ライフライクなコンテンツやアバター、エージェント活動)からの差別化可能性の増加と、AIのスケーラビリティの増大(コスト効率、アクセシビリティ)である。
匿名認証と「人格保護」システムに関する長い研究の歴史に基づいて、人格認証は、オンラインプラットフォーム上での信頼感を示す手段を提供し、サービス提供者が悪役による誤用を減らすための新しいツールを提供する。
対照的に、CAPTCHAのような自動偽造に対する既存の対策は、高度なAIに対して不十分であり、厳格なアイデンティティ検証ソリューションは多くのユースケースで不十分にプライベートである。
人格認証のメリットを調査した後、デプロイメントのリスクや設計上の課題についても検討する。
我々は、政策立案者、技術者、および標準機関が一般との協議で検討すべき、実用的な次のステップで締めくくります。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - AI and Democracy's Digital Identity Crisis [0.0]
プライバシー保護のアイデンティティ証明は、偽造の事例を劇的に減らし、偽情報を識別しやすくし、潜在的に妨げる可能性がある。
本稿では, 政府, バイオメトリック, フェデレーション, 信頼に基づくWebなど, 検査のタイプについて論じる。
これらのシステムは、悪意あるアクターの手にAIが作用する民主主義に対する脅威のいくつかを防ぎ、アイデンティティを認証するための最良のアプローチだと考えています。
論文 参考訳(メタデータ) (2023-09-25T14:15:18Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Detecting The Corruption Of Online Questionnaires By Artificial
Intelligence [1.9458156037869137]
この研究は、オンライン研究のためにAIが生成したテキストが、人間と自動AI検出システムの両方で検出できるかどうかを検証した。
人間はチャンスレベル以上のテキストの著者を正しく特定することができた。
しかし、彼らのパフォーマンスは、満足のいくデータ品質を保証するために必要となるものより依然として劣っていた。
論文 参考訳(メタデータ) (2023-08-14T23:47:56Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Identity and Personhood in Digital Democracy: Evaluating Inclusion,
Equality, Security, and Privacy in Pseudonym Parties and Other Proofs of
Personhood [1.3833241949666322]
IDチェック、バイオメトリックス、自己主権のアイデンティティ、信頼ネットワークはすべて、欠陥を提示する。
デジタルIDは馬を引っ張るカートなので、これらの欠陥は克服できないかもしれません。
我々は、この欠落基盤を提供する可能性のある「人格の保護」に対する代替アプローチを探究する。
論文 参考訳(メタデータ) (2020-11-04T17:08:54Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Persuasion Meets AI: Ethical Considerations for the Design of Social
Engineering Countermeasures [0.0]
FacebookやInstagramのようなSNSのプライバシーは、人々の自己開示決定と密接に関連している。
オンラインのプライバシー決定は、しばしば、不信任者に対して機密データを開示する義務を負わせる、急激なリスク判断に基づいている。
本稿では,nudging機構がAIベースの対策の開発にもたらす倫理的課題について詳述する。
論文 参考訳(メタデータ) (2020-09-27T14:24:29Z) - CIAGAN: Conditional Identity Anonymization Generative Adversarial
Networks [12.20367903755194]
CIAGANは条件付き生成対向ネットワークに基づく画像およびビデオの匿名化モデルである。
このモデルでは,高品質な画像や映像を制作しながら,顔や身体の特徴を識別できる。
論文 参考訳(メタデータ) (2020-05-19T15:56:08Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。