論文の概要: Reputation Management in the ChatGPT Era
- arxiv url: http://arxiv.org/abs/2412.06356v1
- Date: Mon, 09 Dec 2024 10:17:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:56:44.056573
- Title: Reputation Management in the ChatGPT Era
- Title(参考訳): チャットGPT時代のレコメンデーションマネジメント
- Authors: Lilian Edwards, Reuben Binns,
- Abstract要約: 生成型AIシステムは、たとえ明示的にそうするように指示されていなくても、実人のアウトプットを生成することが多い。
本稿では,これらの個人を保護するための法的手段について考察し,特に名誉とデータ保護に関する法律に焦点をあてる。
我々は、これらの個人主義的救済の限界に言及し、情報圏を生成AIから保護するためのより体系的で環境的なアプローチの必要性を示唆する。
- 参考スコア(独自算出の注目度): 4.485614995478454
- License:
- Abstract: Generative AI systems often generate outputs about real people, even when not explicitly prompted to do so. This can lead to significant reputational and privacy harms, especially when sensitive, misleading, and outright false. This paper considers what legal tools currently exist to protect such individuals, with a particular focus on defamation and data protection law. We explore the potential of libel law, arguing that it is a potential but not an ideal remedy, due to lack of harmonization, and the focus on damages rather than systematic prevention of future libel. We then turn to data protection law, arguing that the data subject rights to erasure and rectification may offer some more meaningful protection, although the technical feasibility of compliance is a matter of ongoing research. We conclude by noting the limitations of these individualistic remedies and hint at the need for a more systemic, environmental approach to protecting the infosphere against generative AI.
- Abstract(参考訳): 生成AIシステムは、たとえ明示的にそうするように指示されていなくても、現実の人々のアウトプットを生成することが多い。
これは、特にセンシティブな、誤解を招く、完全に偽りの場合に、評判とプライバシーに重大な損害をもたらす可能性がある。
本稿では,これらの個人を保護するための法的手段について考察し,特に名誉とデータ保護に関する法律に焦点をあてる。
我々は、調和の欠如と、将来の自由の体系的な予防よりも、損害に焦点をあてることにより、それが潜在的だが理想的な救済策ではないと主張して、リベル法の可能性を探究する。
そして、データ保護法に目を向けて、データの消去と是正に関する権利はより意味のある保護を提供するかもしれないと主張したが、コンプライアンスの技術的実現は、現在進行中の研究の問題である。
我々は、これらの個人主義的救済の限界に言及し、情報圏を生成AIから保護するためのより体系的で環境的なアプローチの必要性を示唆する。
関連論文リスト
- Perception of Digital Privacy Protection: An Empirical Study using GDPR Framework [0.22628031081632272]
本研究では、一般データ保護知覚規則(General Data Protection Perception Regulation, システム二分法)フレームワークを用いて、政府データのデジタルプライバシ保護の認識について検討する。
発見は、人々のプライバシー権の保護に対する認識を二分していることを示唆している。
同意を与えて無断で反対する権利は、最も保護されていないものと認識される。
第2に、この研究は、社会的ジレンマが、彼らのコンテキストと文化に基づいて、デジタルプライバシを知覚する人々の社会的なジレンマの証拠を示す。
論文 参考訳(メタデータ) (2024-11-19T04:36:31Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - U Can't Gen This? A Survey of Intellectual Property Protection Methods for Data in Generative AI [4.627725143147341]
トレーニングデータの知的財産権に関する懸念について検討する。
我々は、潜在的なIP違反につながる誤用を可能にする生成モデルの性質に焦点を当てる。
論文 参考訳(メタデータ) (2024-04-22T09:09:21Z) - The Good and The Bad: Exploring Privacy Issues in Retrieval-Augmented
Generation (RAG) [56.67603627046346]
Retrieval-augmented Generation (RAG)は、プロプライエタリおよびプライベートデータによる言語モデルを容易にする強力な技術である。
本研究では,プライベート検索データベースの漏洩に対するRAGシステムの脆弱性を実証する,新たな攻撃手法による実証的研究を行う。
論文 参考訳(メタデータ) (2024-02-23T18:35:15Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - Privacy and Copyright Protection in Generative AI: A Lifecycle Perspective [28.968233485060654]
データライフサイクルにおけるプライバシーと著作権保護の多面的課題について論じる。
我々は、技術的革新と倫理的展望を組み合わせた統合的なアプローチを提唱する。
この作業は、より広範な議論のきっかけとなり、ジェネレーティブAIにおけるデータのプライバシと著作権の整合性に対する継続的な取り組みを促進することを目的としている。
論文 参考訳(メタデータ) (2023-11-30T05:03:08Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - On the Privacy Risks of Algorithmic Recourse [17.33484111779023]
対戦相手がリコースを利用して、基礎となるモデルのトレーニングデータに関するプライベート情報を推測できるかどうかを調査する最初の試みを行う。
我々の研究は、リコメンデーション手法の普及において、意図しないプライバシー漏洩が重要なリスクとして確立されている。
論文 参考訳(メタデータ) (2022-11-10T09:04:24Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Online publication of court records: circumventing the
privacy-transparency trade-off [0.0]
法律データへの大規模なアクセスに対処するには,現在のプラクティスが不十分である,と我々は主張する。
本稿では,プライバシ保護法定データパブリッシングシステムへの道を切り開く,ストローマンマルチモーダルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-07-03T13:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。