論文の概要: Value-Action Alignment in Large Language Models under Privacy-Prosocial Conflict
- arxiv url: http://arxiv.org/abs/2601.03546v1
- Date: Wed, 07 Jan 2026 03:30:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.123343
- Title: Value-Action Alignment in Large Language Models under Privacy-Prosocial Conflict
- Title(参考訳): プライバシー問題下における大規模言語モデルの価値表現アライメント
- Authors: Guanyu Chen, Chenxiao Yu, Xiyang Hu,
- Abstract要約: 本稿では,プライバシの態度,社会性,データ共有の受容に関する標準化されたアンケートを管理するコンテキストベースのアセスメントプロトコルを提案する。
競合する姿勢下での価値-作用アライメントを評価するために,多群構造方程式モデリング(MGSEM)を用いて,プライバシの懸念やデータ共有に対する親和性から関係を同定する。
- 参考スコア(独自算出の注目度): 5.739904853130176
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) are increasingly used to simulate decision-making tasks involving personal data sharing, where privacy concerns and prosocial motivations can push choices in opposite directions. Existing evaluations often measure privacy-related attitudes or sharing intentions in isolation, which makes it difficult to determine whether a model's expressed values jointly predict its downstream data-sharing actions as in real human behaviors. We introduce a context-based assessment protocol that sequentially administers standardized questionnaires for privacy attitudes, prosocialness, and acceptance of data sharing within a bounded, history-carrying session. To evaluate value-action alignments under competing attitudes, we use multi-group structural equation modeling (MGSEM) to identify relations from privacy concerns and prosocialness to data sharing. We propose Value-Action Alignment Rate (VAAR), a human-referenced directional agreement metric that aggregates path-level evidence for expected signs. Across multiple LLMs, we observe stable but model-specific Privacy-PSA-AoDS profiles, and substantial heterogeneity in value-action alignment.
- Abstract(参考訳): 大きな言語モデル(LLM)は、プライバシの懸念と社会的動機が反対方向に選択をプッシュする、個人データ共有を含む意思決定タスクをシミュレートするために、ますます使われています。
既存の評価は、プライバシ関連の態度や分離された意図を計測することが多いため、モデルが表現した値が実際の人間の行動と同じように、下流のデータ共有アクションを共同で予測するかどうかを判断することは困難である。
本稿では,プライバシーの態度,社会性,データ共有の受容などに関する標準化されたアンケートを,コンテキストベースで逐次管理する評価プロトコルを提案する。
競合する姿勢下での価値-作用アライメントを評価するために,多群構造方程式モデリング(MGSEM)を用いて,プライバシの懸念やデータ共有に対する親和性から関係を同定する。
本研究では,人為的合意基準であるVAAR(Value-Action Alignment Rate)を提案する。
複数のLCMにわたって、安定だがモデル固有のプライバシ-PSA-AoDSプロファイルと、値-アクションアライメントにおけるかなりの不均一性を観察する。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Evaluating Differentially Private Generation of Domain-Specific Text [33.72321050465059]
差分プライバシー保証の下で生成されたテキストデータセットの有用性と忠実度を体系的に評価するための統一ベンチマークを導入する。
ドメイン固有の5つのデータセットにまたがって、最先端のプライバシ保存手法を評価する。
論文 参考訳(メタデータ) (2025-08-28T05:57:47Z) - Differentially Private Relational Learning with Entity-level Privacy Guarantees [17.567309430451616]
本研究は,形式的エンティティレベルDP保証を用いた関係学習の原則的枠組みを提案する。
本稿では,実体発生頻度に基づいてクリッピング閾値を変調する適応的勾配クリッピング方式を提案する。
これらの貢献により、プライバシー保証が保証されたリレーショナルデータに対して、DP-SGDの修正版が提供される。
論文 参考訳(メタデータ) (2025-06-10T02:03:43Z) - Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Model Agnostic Differentially Private Causal Inference [16.50501378936487]
観察データから因果効果を推定することは、医学、経済学、社会科学において不可欠である。
本稿では,平均治療効果を個人で評価するための一般的なモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T07:00:37Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [53.97323896430374]
言語モデルにおけるパーソナライゼーションは、個々のユーザやユーザグループに対する振る舞いをモデル化することを目的としている。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、プライバシーリスクを低減しつつ、ユーティリティを直接最適化するために、勾配のない方法を採用している。
LaMPベンチマークの実験によると、Primeは一貫してベースラインを上回り、タスクパフォーマンスを最大45%改善している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Analysing Fairness of Privacy-Utility Mobility Models [11.387235721659378]
この研究は、人間の移動性のために明示的に設計された公正度メトリクスのセットを定義する。
GANと表現学習に依存した2つの最先端プライバシ保護モデルの公正性を検証し,データ共有におけるユーザの再識別率の低減を図る。
以上の結果から,両モデルがグループフェアネスを保証しているが,個々のフェアネス基準に反し,非常に類似したトラジェクトリを持つユーザに対して,異なるプライバシ向上が認められたことが示唆された。
論文 参考訳(メタデータ) (2023-04-10T11:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。