論文の概要: Survey Transfer Learning: Recycling Data with Silicon Responses
- arxiv url: http://arxiv.org/abs/2501.06577v2
- Date: Sat, 01 Nov 2025 03:13:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 16:14:21.842581
- Title: Survey Transfer Learning: Recycling Data with Silicon Responses
- Title(参考訳): シリコン反応を用いたリサイクリングデータを用いたサーベイトランスファー学習
- Authors: Ali Amini,
- Abstract要約: サーベイ・トランスファー・ラーニング (STL) は、コンピュータサイエンスによるサーベイ・リサーチのためのトランスファー・ラーニング・パラダイムを開発する。
政治行動理論に触発されたSTLは、偏極化アメリカの文脈において高い予測力を持つ共有人口統計学変数を利用する。
STLは、個々のレベルの精度で経験的に基底化されたシリコン応答を生成し、社会科学とポーリング業界における重要な課題を軽減するのに役立つ可能性がある。
- 参考スコア(独自算出の注目度): 0.7845374917241951
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As researchers increasingly turn to large language models (LLMs) to generate synthetic survey data, less attention has been paid to alternative AI paradigms given environmental costs of LLMs. This paper introduces Survey Transfer Learning (STL), which develops transfer learning paradigms from computer science for survey research to recycle existing survey data and generate empirically grounded silicon responses. Inspired by political behavior theory, STL leverages shared demographic variables with high predictive power in a polarized American context to transfer knowledge across surveys. Using a neural network pre-trained on the Cooperative Election Study (CES) 2020, freezing early layers to preserve learned structure, and fine-tuning top layers on the American National Election Studies (ANES) 2020, STL generates silicon responses CES 2022 and in held-out ANES 2020 data with accuracy rates of up to 93 percent. Results show that STL outperforms LLMs, especially on sensitive measures such as racial resentment. While LLMs silicon samples are costly and opaque, STL generates empirically grounded silicon responses with high individual-level accuracy, potentially helping to mitigate key challenges in social science and the polling industry.
- Abstract(参考訳): 研究者が大規模言語モデル(LLM)に転換して合成調査データを生成するにつれ、LLMの環境コストを考慮すると、代替AIパラダイムにはあまり注意が払われていない。
本稿では,既存の調査データを再利用し,経験的基盤としたシリコン応答を生成するために,計算機科学から伝達学習パラダイムを開発するSTLについて紹介する。
政治行動理論に触発されたSTLは、偏極化したアメリカの文脈において高い予測力を持つ共有人口統計学変数を活用して、調査を通じて知識を伝達する。
共同選挙研究(CES)2020で事前トレーニングされたニューラルネットワークを使用し、学習された構造を維持するために初期のレイヤを凍結し、米国選挙研究(ANES)2020で微調整されたトップレイヤを使用することで、STLは2022年と93%の精度でシリコン反応を発生させる。
その結果,STL は LLM よりも優れており,特に人種的反感などの敏感な尺度では優れていた。
LLMのシリコンサンプルは高価で不透明だが、STLは個々のレベルの精度で経験的に基底化されたシリコン応答を生成し、社会科学やポーリング業界における重要な課題を軽減するのに役立つ可能性がある。
関連論文リスト
- Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment [49.81946749379338]
この研究は、トランスフォーマーベースのシステムの能力を分析して、データに存在する人口統計バイアスを学習する。
最終ツールにおける偏りを緩和する手段として,学習パイプラインからの性別情報を削減するためのプライバシー向上フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T15:29:43Z) - Adaptive political surveys and GPT-4: Tackling the cold start problem with simulated user interactions [5.902306366006418]
適応質問票は, アンケート参加者に対して, 前の回答に基づいて, 次の質問を動的に選択する。
デジタル化により、これらは政治科学などの応用分野における伝統的な調査の代替となる。
1つの制限は、質問の選択のためにモデルをトレーニングするデータへの依存である。
適応型政治調査の統計モデルを事前学習するために,合成データが利用できるかどうかを検討する。
論文 参考訳(メタデータ) (2025-03-12T12:02:36Z) - Specializing Large Language Models to Simulate Survey Response Distributions for Global Populations [49.908708778200115]
我々は,調査応答分布をシミュレートする大規模言語モデル (LLM) を最初に開発した。
テストベッドとして、我々は2つの世界文化調査の国レベルの結果を使用します。
予測された応答分布と実際の応答分布のばらつきを最小限に抑えるために, ファースト・ツーケン確率に基づく微調整法を提案する。
論文 参考訳(メタデータ) (2025-02-10T21:59:27Z) - Transfer Learning for Spatial Autoregressive Models with Application to U.S. Presidential Election Prediction [10.825562180226424]
本稿では, tranSAR と呼ばれる SAR モデル内に新しいトランスファー学習フレームワークを提案する。
我々のフレームワークは、類似した情報源データからの情報を活用することにより、予測と予測を強化する。
本手法は, 従来の手法よりも優れており, アメリカ合衆国大統領選挙の結果を予測する上での有効性を実証する。
論文 参考訳(メタデータ) (2024-05-20T03:14:15Z) - Spurious Correlations in Machine Learning: A Survey [27.949532561102206]
機械学習システムは、入力とラベルの非意味的な特徴の間の素早い相関に敏感である。
これらの特徴とそのラベルとの相関は"spurious"として知られている。
我々は、機械学習モデルにおける素早い相関に対処する最先端の手法の分類とともに、この問題をレビューする。
論文 参考訳(メタデータ) (2024-02-20T04:49:34Z) - Crowdsourced Adaptive Surveys [0.0]
本稿では,クラウドソーシング型適応調査手法(CSAS)を紹介する。
本手法は,参加者が提供したオープンエンドテキストを調査項目に変換し,マルチアームバンディットアルゴリズムを適用し,調査においてどの質問を優先すべきかを判断する。
CSASが研究者と調査参加者の間に概念的ギャップを埋める可能性を強調した。
論文 参考訳(メタデータ) (2024-01-16T04:05:25Z) - Federated Learning for Generalization, Robustness, Fairness: A Survey
and Benchmark [55.898771405172155]
フェデレートラーニングは、異なる当事者間のプライバシー保護コラボレーションのための有望なパラダイムとして登場した。
我々は,連合学習研究の重要かつ最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2023-11-12T06:32:30Z) - A Recent Survey of Heterogeneous Transfer Learning [15.830786437956144]
異種移動学習は 様々なタスクにおいて 重要な戦略となっている。
データベースとモデルベースの両方のアプローチを網羅した60以上のHTLメソッドの広範なレビューを提供する。
自然言語処理,コンピュータビジョン,マルチモーダル学習,バイオメディシンの応用について検討する。
論文 参考訳(メタデータ) (2023-10-12T16:19:58Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Predicting Survey Response with Quotation-based Modeling: A Case Study
on Favorability towards the United States [0.0]
そこで我々は,機械学習を用いて探索応答を推定する先駆的手法を提案する。
我々は、さまざまな国籍の個人から引用された膨大なコーパスを活用して、彼らの好意のレベルを抽出する。
自然言語処理技術と機械学習アルゴリズムを組み合わせて,質問応答の予測モデルを構築した。
論文 参考訳(メタデータ) (2023-05-23T14:11:01Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Two-Faced Humans on Twitter and Facebook: Harvesting Social Multimedia
for Human Personality Profiling [74.83957286553924]
我々は、"PERS"と呼ばれる新しい多視点融合フレームワークを適用して、マイアーズ・ブリッグス・パーソナリティ・タイプインジケータを推定する。
実験の結果,多視点データからパーソナリティ・プロファイリングを学習する能力は,多様なソーシャル・マルチメディア・ソースからやってくるデータを効率的に活用できることが示唆された。
論文 参考訳(メタデータ) (2021-06-20T10:48:49Z) - Domain Generalization: A Survey [146.68420112164577]
ドメイン一般化(DG)は、モデル学習にソースドメインデータを使用するだけでOOD一般化を実現することを目的としています。
初めて、DGの10年の開発をまとめるために包括的な文献レビューが提供されます。
論文 参考訳(メタデータ) (2021-03-03T16:12:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。