論文の概要: Mitigating Social Desirability Bias in Random Silicon Sampling
- arxiv url: http://arxiv.org/abs/2512.22725v1
- Date: Sat, 27 Dec 2025 23:21:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.190956
- Title: Mitigating Social Desirability Bias in Random Silicon Sampling
- Title(参考訳): ランダムシリコンサンプリングにおける社会的望ましくないバイアスの軽減
- Authors: Sashank Chapala, Maksym Mironov, Songgaojun Deng,
- Abstract要約: 大規模言語モデル (LLMs) において, 最小, 心理的に基礎を置き, SDB (Social Desirability Bias) を緩和できるかどうかを検討する。
我々は,米国選挙研究会(ANES)のデータを用いて,2つのモデルファミリーの3つのLDMについて調査を行った。
以上の結果から,社会に受け入れられる回答の分布集中を減らし,アライメントを効果的に改善することが示唆された。
- 参考スコア(独自算出の注目度): 3.6780694107792495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly used to simulate population responses, a method known as ``Silicon Sampling''. However, responses to socially sensitive questions frequently exhibit Social Desirability Bias (SDB), diverging from real human data toward socially acceptable answers. Existing studies on social desirability bias in LLM-based sampling remain limited. In this work, we investigate whether minimal, psychologically grounded prompt wording can mitigate this bias and improve alignment between silicon and human samples. We conducted a study using data from the American National Election Study (ANES) on three LLMs from two model families: the open-source Llama-3.1 series and GPT-4.1-mini. We first replicate a baseline silicon sampling study, confirming the persistent Social Desirability Bias. We then test four prompt-based mitigation methods: \emph{reformulated} (neutral, third-person phrasing), \emph{reverse-coded} (semantic inversion), and two meta-instructions, \emph{priming} and \emph{preamble}, respectively encouraging analytics and sincerity. Alignment with ANES is evaluated using Jensen-Shannon Divergence with bootstrap confidence intervals. Our results demonstrate that reformulated prompts most effectively improve alignment by reducing distribution concentration on socially acceptable answers and achieving distributions closer to ANES. Reverse-coding produced mixed results across eligible items, while the Priming and Preamble encouraged response uniformity and showed no systematic benefit for bias mitigation. Our findings validate the efficacy of prompt-based framing controls in mitigating inherent Social Desirability Bias in LLMs, providing a practical path toward more representative silicon samples.
- Abstract(参考訳): 大規模言語モデル (LLMs) は '`Silicon Sampling'' と呼ばれる手法である集団応答のシミュレートにますます利用されている。
しかし、社会に敏感な質問に対する回答は、実際の人間のデータから社会的に受け入れられる回答へと変化し、しばしばSDB(Social Desirability Bias)を示す。
LLMを用いたサンプリングにおける社会的望ましくないバイアスに関する既存の研究は限られている。
本研究では,このバイアスを緩和し,シリコンと人体試料のアライメントを改善することができるかを検討する。
Llama-3.1 シリーズと GPT-4.1-mini シリーズの3種類の LLM について,米国選挙研究会 (ANES) のデータを用いて検討を行った。
まずベースラインシリコンサンプリング研究を再現し、永続的なソーシャル・デシラビリティ・バイアスを確認した。
次に、4つのプロンプトベースの緩和法を検証した: \emph{reformulated} (中性, 第三者のフレーズ)、 \emph{reverse-coded} (セマンティック・インバージョン)、および2つのメタ命令である \emph{priming} と \emph{preamble} 。
Jensen-Shannon Divergence とブートストラップ信頼区間を用いたアライメントの評価を行った。
以上の結果から,社会に受け入れられる回答の分布集中を減らし,ANESに近い分布を達成し,アライメントを効果的に向上させることが示唆された。
一方、プライミングとプリアンブルは応答の均一性を奨励し、バイアス軽減の体系的なメリットは示さなかった。
以上の結果から, LLMにおける社会求心性バイアスの緩和にアクシデントベースのフレーミング制御の有効性が検証され, より代表的なシリコン試料への実践的な道のりが示唆された。
関連論文リスト
- Can Finetuing LLMs on Small Human Samples Increase Heterogeneity, Alignment, and Belief-Action Coherence? [9.310571879281186]
大規模言語モデル(LLM)は、調査および実験研究における人間の参加者の代用として機能する。
LLMは、しばしば実際の人間の行動と一致せず、限られた多様性を示し、少数派のサブグループに対する体系的なミスアライメントを示し、グループ内でのばらつきが不十分であり、言明された信念と行動の相違を示す。
本研究では、パイロットスタディから得られるような、人間の調査データのごく一部を微調整することで、これらの問題を緩和し、現実的なシミュレーション結果が得られるかどうかを検討する。
論文 参考訳(メタデータ) (2025-11-26T09:50:42Z) - Learning from Convenience Samples: A Case Study on Fine-Tuning LLMs for Survey Non-response in the German Longitudinal Election Study [0.6104510780984732]
ランダムな非応答と体系的な非応答の両方で自己申告された投票選択をインプットするために、大きな言語モデルを微調整する。
LLMは、ゼロショットよりも正確に個人レベルの予測と人口レベルの分布を復元することができる。
このことは、微調整のLSMが、非確率的なサンプルや体系的な欠陥を扱う研究者に有望な戦略を提供することを示唆している。
論文 参考訳(メタデータ) (2025-09-29T17:12:18Z) - Prompts to Proxies: Emulating Human Preferences via a Compact LLM Ensemble [46.82793004650415]
大規模言語モデル(LLM)は、様々なタスクにまたがる人間のような応答をエミュレートする可能性を実証している。
本研究では,LLMをエージェントプロキシとして扱う新しいアライメントフレームワークを提案する。
我々は、構造化されたプロンプトエンジニアリング、エントロピーに基づくサンプリング、回帰に基づく選択を用いて、LLMエージェントを代表的行動パターンに向けて操るシステムであるP2Pを紹介する。
論文 参考訳(メタデータ) (2025-09-14T15:08:45Z) - Emulating Public Opinion: A Proof-of-Concept of AI-Generated Synthetic Survey Responses for the Chilean Case [0.0]
大規模言語モデル (LLMs) は、調査研究における方法論的および応用的な革新のための有望な道を提供する。
チリの世論確率論的調査から, LLM生成型人工サーベイ応答の信頼性を評価する。
論文 参考訳(メタデータ) (2025-09-11T21:43:59Z) - Specializing Large Language Models to Simulate Survey Response Distributions for Global Populations [49.908708778200115]
我々は,調査応答分布をシミュレートする大規模言語モデル (LLM) を最初に開発した。
テストベッドとして、我々は2つの世界文化調査の国レベルの結果を使用します。
予測された応答分布と実際の応答分布のばらつきを最小限に抑えるために, ファースト・ツーケン確率に基づく微調整法を提案する。
論文 参考訳(メタデータ) (2025-02-10T21:59:27Z) - Towards Implicit Bias Detection and Mitigation in Multi-Agent LLM Interactions [25.809599403713506]
大規模言語モデル(LLM)は、社会をシミュレートし、多様な社会的タスクを実行するために、多くの研究で採用されている。
LLMは、人為的なデータに曝されるため、社会的偏見に影響を受けやすい。
本研究では,多エージェントLDM相互作用における性バイアスの存在について検討し,これらのバイアスを軽減するための2つの方法を提案する。
論文 参考訳(メタデータ) (2024-10-03T15:28:05Z) - Social Debiasing for Fair Multi-modal LLMs [59.61512883471714]
MLLM(Multi-modal Large Language Models)は、研究分野を劇的に進歩させ、強力な視覚言語理解機能を提供する。
これらのモデルは、しばしば訓練データから根深い社会的偏見を継承し、人種や性別などの属性に対する不快な反応をもたらす。
本稿では,MLLMにおける社会的バイアスの問題を,複数の社会的概念を持つ包括的対実的データセットを導入することで解決する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。