論文の概要: The Governance of Intimacy: A Preliminary Policy Analysis of Romantic AI Platforms
- arxiv url: http://arxiv.org/abs/2602.22000v1
- Date: Wed, 25 Feb 2026 15:18:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.879248
- Title: The Governance of Intimacy: A Preliminary Policy Analysis of Romantic AI Platforms
- Title(参考訳): 親密性のガバナンス: ロマンティックAIプラットフォームの予備的政策分析
- Authors: Xiao Zhan, Yifan Xu, Rongjun Ma, Shijing He, Jose Luis Martin-Navarro, Jose Such,
- Abstract要約: ロマンティックなAIプラットフォームは、親密な感情的開示を招待するが、データガバナンスのプラクティスはいまだ過小評価されている。
本研究では、欧米と中国の6つのロマンティックAIプラットフォームのプライバシポリシとサービス条件について分析する。
- 参考スコア(独自算出の注目度): 11.396490505368952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Romantic AI platforms invite intimate emotional disclosure, yet their data governance practices remain underexamined. This preliminary study analyses the Privacy Policies and Terms of Service of six Western and Chinese romantic AI platforms. We find that intimate disclosures are often positioned as reusable data assets, with broad permissions for storage, analysis, and model training. We identify default training appropriation, ownership reconstruction, and intimate history assetization as key mechanisms structuring these practices, expanding platforms' rights while shifting risk onto users. Our findings surface key governance challenges in romantic AI and are intended to provoke discussion and inform future empirical and design research on human AI intimacy and its governance.
- Abstract(参考訳): ロマンティックなAIプラットフォームは、親密な感情的開示を招待するが、データガバナンスのプラクティスはいまだ過小評価されている。
この予備研究は、西洋と中国の6つのロマンティックAIプラットフォームのプライバシポリシとサービス条件を分析する。
親密な開示は、しばしば再利用可能なデータ資産として位置づけられ、ストレージ、分析、モデルトレーニングの幅広い許可が得られます。
我々は、これらのプラクティスを構造化し、リスクをユーザに移しながらプラットフォームの権利を拡大する鍵となるメカニズムとして、デフォルトのトレーニング予算、所有権の再構築、親密な歴史資産化を定めている。
我々の研究結果は、ロマンティックAIにおける主要なガバナンス課題を表面化し、人間のAI親密性とそのガバナンスに関する議論を促し、将来の経験的かつ設計的な研究を知らせることを目的としている。
関連論文リスト
- Towards Benchmarking Privacy Vulnerabilities in Selective Forgetting with Large Language Models [28.389198065125314]
選択的な忘れ(マシンアンラーニングとも呼ばれる)は、プライバシとデータ削除タスクの約束を示している。
その約束にもかかわらず、選択的な忘れ物はプライバシーの懸念を生じさせる。
プライバシの脆弱性を選択的に評価するための、最初の包括的なベンチマークを示す。
論文 参考訳(メタデータ) (2025-12-19T20:04:06Z) - A Survey on Current Trends and Recent Advances in Text Anonymization [2.7493647230491907]
本調査は,テキスト匿名化技術の最近の動向と最近の進歩を概観する。
この調査はさらに、医療、法律、金融、教育といった重要な分野におけるドメイン固有の課題やソリューションについて調査している。
論文 参考訳(メタデータ) (2025-08-29T12:43:06Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - Clio-X: AWeb3 Solution for Privacy-Preserving AI Access to Digital Archives [1.3713383780077602]
本稿では, 研究者が利用できるようにすると同時に, 機密コンテンツのコントロールを保ちつつ, プライバシー向上技術がアーカイブをいかに支援できるかを考察する。
Clio-Xは、分散化されたプライバシ優先のWeb3ディジタルソリューションで、PETをアーカイブに組み込み、AI対応の参照とアクセスをサポートするように設計されています。
論文 参考訳(メタデータ) (2025-07-09T05:30:38Z) - Privacy-Preserving Large Language Models: Mechanisms, Applications, and Future Directions [0.0]
本調査では,大規模言語モデルに適したプライバシ保護機構の展望について考察する。
メンバーシップ推論やモデル逆転攻撃といった重要なプライバシー問題に対処する上での有効性を検討する。
本稿では、最先端のアプローチと今後のトレンドを合成することによって、堅牢でプライバシーに配慮した大規模言語モデルを構築するための基盤を提供する。
論文 参考訳(メタデータ) (2024-12-09T00:24:09Z) - Assessing Privacy Policies with AI: Ethical, Legal, and Technical Challenges [6.916147439085307]
大きな言語モデル(LLM)は、ユーザのプライバシポリシを自動評価するために使用することができる。
このアプローチの課題を,技術的実現性,倫理的意味,法的適合性の3つの柱で検討する。
本研究は,今後の研究の可能性を特定し,LLM技術の利用に関する議論を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-10T21:36:35Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。