論文の概要: The threat of analytic flexibility in using large language models to simulate human data: A call to attention
- arxiv url: http://arxiv.org/abs/2509.13397v1
- Date: Tue, 16 Sep 2025 17:29:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.592103
- Title: The threat of analytic flexibility in using large language models to simulate human data: A call to attention
- Title(参考訳): 大規模言語モデルを用いた人間のデータのシミュレートにおける分析的柔軟性の脅威--注目への呼びかけ
- Authors: Jamie Cummins,
- Abstract要約: シリコンサンプル(シリコンサンプル)とは、ヒトの被験者を対象とする合成データセットである。
ごく少数の意思決定が、シリコンサンプルと人間のデータとの対応を劇的に変えることができることを示す。
私は、シリコンサンプルの使用における分析的柔軟性の脅威に対して、より注意を払っています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social scientists are now using large language models to create "silicon samples" - synthetic datasets intended to stand in for human respondents, aimed at revolutionising human subjects research. However, there are many analytic choices which must be made to produce these samples. Though many of these choices are defensible, their impact on sample quality is poorly understood. I map out these analytic choices and demonstrate how a very small number of decisions can dramatically change the correspondence between silicon samples and human data. Configurations (N = 252) varied substantially in their capacity to estimate (i) rank ordering of participants, (ii) response distributions, and (iii) between-scale correlations. Most critically, configurations were not consistent in quality: those that performed well on one dimension often performed poorly on another, implying that there is no "one-size-fits-all" configuration that optimises the accuracy of these samples. I call for greater attention to the threat of analytic flexibility in using silicon samples.
- Abstract(参考訳): 社会科学者は現在、大きな言語モデルを使って「シリコンサンプル」を作成している。
しかし、これらのサンプルを生成するためには分析的な選択が数多く必要である。
これらの選択の多くは防御可能であるが、それらがサンプルの品質に与える影響は理解されていない。
これらの分析的な選択をマップアップし、非常に少数の決定が、シリコンサンプルと人間のデータとの対応を劇的に変えることを実証します。
構成(N = 252)は推定能力に大きく異なる
一 参加者の位階
(二)応答分布、及び
(iii) スケールの相関関係。
最も重要な点として、構成は品質的に整合性がなく、ある次元でうまく機能したものは、しばしば別の次元で性能が悪く、これらのサンプルの精度を最適化する"1サイズフィットの"構成は存在しないことを暗示している。
私は、シリコンサンプルの使用における分析的柔軟性の脅威に対して、より注意を払っています。
関連論文リスト
- Diffusion-Driven High-Dimensional Variable Selection [6.993247097440294]
本稿では,高忠実度合成データを生成する拡散モデルの能力を生かした再サンプル集約フレームワークを提案する。
提案手法は軽微な仮定の下で一貫した選択であることを示す。
本手法は,変数選択手法を改良し,統計的に厳密な解析を行うためのツールキットを拡充する。
論文 参考訳(メタデータ) (2025-08-19T14:54:20Z) - Using Imperfect Synthetic Data in Downstream Inference Tasks [50.40949503799331]
モーメントの一般化法に基づく新しい推定器を提案する。
合成データのモーメント残差と実データのモーメント間の相互作用は、対象パラメータの推定を改善することができる。
論文 参考訳(メタデータ) (2025-08-08T18:32:52Z) - Improving Predictions on Highly Unbalanced Data Using Open Source Synthetic Data Upsampling [0.0]
特徴空間のスパース領域におけるギャップを埋める多様なデータポイントを生成することにより,少数群の予測精度を向上させることができることを示す。
我々はMOSTLY AIによるオープンソースソリューションであるSynthetic Data SDKの有効性を評価する。
論文 参考訳(メタデータ) (2025-07-22T10:11:32Z) - Prismatic Synthesis: Gradient-based Data Diversification Boosts Generalization in LLM Reasoning [77.120955854093]
我々は,データ多様性が言語モデルにおける一般化の強力な予測因子であることを示す。
モデル誘起勾配のエントロピーを通して多様性を定量化する計量であるG-Vendiを導入する。
多様な合成データを生成するためのフレームワークであるPrismatic Synthesisを提案する。
論文 参考訳(メタデータ) (2025-05-26T16:05:10Z) - Debiasing Synthetic Data Generated by Deep Generative Models [40.165159490379146]
合成データ生成のための深部生成モデル(DGM)は、合成データ解析においてバイアスと不正確性を誘導する。
本稿では,DGMが生成する合成データを,特定のデータ解析のためにターゲットとする新たな戦略を提案する。
提案手法は, 偏差を考慮し, 収束率を向上し, 容易に近似された大きなサンプル分散を持つ推定器の計算を容易にする。
論文 参考訳(メタデータ) (2024-11-06T19:24:34Z) - Trust Your Gut: Comparing Human and Machine Inference from Noisy Visualizations [7.305342793164905]
人間の直観が理想的な統計的合理性を超えたシナリオを考察する。
その結果,合理性から外れた場合でも,可視化に対するアナリストの反応が有利である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-23T22:39:57Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。