論文の概要: Generative AI as a Safety Net for Survey Question Refinement
- arxiv url: http://arxiv.org/abs/2509.08702v1
- Date: Wed, 10 Sep 2025 15:52:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.478225
- Title: Generative AI as a Safety Net for Survey Question Refinement
- Title(参考訳): アンケート用リファインメントの安全ネットとしてのジェネレーティブAI
- Authors: Erica Ann Metheney, Lauren Yehle,
- Abstract要約: ChatGPTや他の生成AIモデルプラットフォームは、日常のプロセスに統合されている。
我々は,平均的なChatGPTユーザが期待できる質問に対するフィードバックの種類を体系的にテストするために,迅速な実験を実施している。
ゼロショットプロンプト実験の結果は、ChatGPTのバージョンとモデルに与えられたペルソナをランダム化したものだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Writing survey questions that easily and accurately convey their intent to a variety of respondents is a demanding and high-stakes task. Despite the extensive literature on best practices, the number of considerations to keep in mind is vast and even small errors can render collected data unusable for its intended purpose. The process of drafting initial questions, checking for known sources of error, and developing solutions to those problems requires considerable time, expertise, and financial resources. Given the rising costs of survey implementation and the critical role that polls play in media, policymaking, and research, it is vital that we utilize all available tools to protect the integrity of survey data and the financial investments made to obtain it. Since its launch in 2022, ChatGPT and other generative AI model platforms have been integrated into everyday life processes and workflows, particularly pertaining to text revision. While many researchers have begun exploring how generative AI may assist with questionnaire design, we have implemented a prompt experiment to systematically test what kind of feedback on survey questions an average ChatGPT user can expect. Results from our zero--shot prompt experiment, which randomized the version of ChatGPT and the persona given to the model, shows that generative AI is a valuable tool today, even for an average AI user, and suggests that AI will play an increasingly prominent role in the evolution of survey development best practices as precise tools are developed.
- Abstract(参考訳): さまざまな回答者にその意図を簡単かつ正確に伝えてくれる調査質問を書くことは、要求に満ちた高い作業である。
ベストプラクティスに関する広範な文献にもかかわらず、考慮すべき考慮事項の数は膨大であり、小さなエラーさえも、収集されたデータを意図した目的のために使用できないものにすることができる。
初期質問の起草、既知のエラー源の確認、これらの問題の解決策の開発には、かなりの時間、専門知識、財務資源が必要である。
調査実施のコストが上昇し, メディア, 政策立案, 研究においてポーリングが果たす重要な役割を考えると, 調査データの整合性とそれを得るための財務投資を保護するために, 利用可能なツールをすべて活用することが不可欠である。
2022年のローンチ以来、ChatGPTや他の生成AIモデルプラットフォームは、特にテキストリビジョンに関連する日常生活のプロセスやワークフローに統合されてきた。
多くの研究者が、ジェネレーティブAIがアンケート設計にどのように役立つかを探求し始めているが、我々は、平均的なChatGPTユーザーが期待できる質問に対するどんなフィードバックを体系的にテストするための迅速な実験を実施している。
ゼロショットプロンプト実験の結果、ChatGPTのバージョンとモデルに与えられたペルソナをランダム化した結果、生成AIは今日、平均的なAIユーザにとっても貴重なツールであることが示された。
関連論文リスト
- Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Specializing Large Language Models to Simulate Survey Response Distributions for Global Populations [49.908708778200115]
我々は,調査応答分布をシミュレートする大規模言語モデル (LLM) を最初に開発した。
テストベッドとして、我々は2つの世界文化調査の国レベルの結果を使用します。
予測された応答分布と実際の応答分布のばらつきを最小限に抑えるために, ファースト・ツーケン確率に基づく微調整法を提案する。
論文 参考訳(メタデータ) (2025-02-10T21:59:27Z) - Exploring the Potential Role of Generative AI in the TRAPD Procedure for Survey Translation [0.0]
本稿では、生成型AIが調査機器の翻訳にどう役立つかを探索し、評価する。
我々は、ChatGPTを用いたゼロショットプロンプト実験を実施し、生成的AIの言語的聴衆への翻訳が困難である可能性のある質問の特徴を識別する能力を探究する。
論文 参考訳(メタデータ) (2024-11-18T20:53:58Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.5712549836791]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - AutoSurvey: Large Language Models Can Automatically Write Surveys [77.0458309675818]
本稿では,総合的な文献調査を自動作成する手法であるAutoSurveyを紹介する。
従来の調査論文は、膨大な量の情報と複雑さのために、課題に直面している。
我々の貢献には、調査問題に対する総合的な解決策、信頼性評価方法、AutoSurveyの有効性を実証する実験的な検証が含まれる。
論文 参考訳(メタデータ) (2024-06-10T12:56:06Z) - Detecting The Corruption Of Online Questionnaires By Artificial
Intelligence [1.9458156037869137]
この研究は、オンライン研究のためにAIが生成したテキストが、人間と自動AI検出システムの両方で検出できるかどうかを検証した。
人間はチャンスレベル以上のテキストの著者を正しく特定することができた。
しかし、彼らのパフォーマンスは、満足のいくデータ品質を保証するために必要となるものより依然として劣っていた。
論文 参考訳(メタデータ) (2023-08-14T23:47:56Z) - A Comprehensive Review of Trends, Applications and Challenges In
Out-of-Distribution Detection [0.76146285961466]
アウト・オブ・ディストリビューション・データ・サブセットの検出とより包括的な一般化の実現に焦点をあてた研究分野が誕生した。
多くのディープラーニングベースのモデルは、ベンチマークデータセットでほぼ完璧な結果を得たため、これらのモデルの信頼性と信頼性を評価する必要性は、これまで以上に強く感じられる。
本稿では,本分野における70以上の論文のレビューに加えて,今後の研究の課題と方向性を提示するとともに,データシフトの多種多様さを統一的に把握し,より一般化するためのソリューションを提案する。
論文 参考訳(メタデータ) (2022-09-26T18:13:14Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Predicting respondent difficulty in web surveys: A machine-learning
approach based on mouse movement features [3.6944296923226316]
本稿では,マウス追跡データの予測値について,回答者の難易度について検討する。
我々は、回答者の就業履歴と人口統計情報に関する調査データを用いている。
そこで,本研究では,基本マウスの行動を調整するパーソナライズ手法を開発し,その性能を評価する。
論文 参考訳(メタデータ) (2020-11-05T10:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。