論文の概要: Do Voters Get the Information They Want? Understanding Authentic Voter FAQs in the US and How to Improve for Informed Electoral Participation
- arxiv url: http://arxiv.org/abs/2412.15273v1
- Date: Tue, 17 Dec 2024 16:29:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:24:42.881019
- Title: Do Voters Get the Information They Want? Understanding Authentic Voter FAQs in the US and How to Improve for Informed Electoral Participation
- Title(参考訳): 有権者は望む情報を得るか?-米国における正当性投票者FAQの理解とインフォームド・エレクタラル・参加の方法
- Authors: Vipula Rawte, Deja N Scott, Gaurav Kumar, Aishneet Juneja, Bharat Sowrya Yaddanapalli, Biplav Srivastava,
- Abstract要約: アメリカ合衆国では、州選挙委員会 (SECs) が有権者に対するFAQ (Frequently Asked Questions) の主要なプロバイダーである。
我々の知る限りでは、包括的なFAQを持つ単一の情報源も、国家レベルでデータを分析して、現状を改善するための実践や方法を特定する研究もない。
- 参考スコア(独自算出の注目度): 4.9706015445291625
- License:
- Abstract: Accurate information is crucial for democracy as it empowers voters to make informed decisions about their representatives and keeping them accountable. In the US, state election commissions (SECs), often required by law, are the primary providers of Frequently Asked Questions (FAQs) to voters, and secondary sources like non-profits such as League of Women Voters (LWV) try to complement their information shortfall. However, surprisingly, to the best of our knowledge, there is neither a single source with comprehensive FAQs nor a study analyzing the data at national level to identify current practices and ways to improve the status quo. This paper addresses it by providing the {\bf first dataset on Voter FAQs covering all the US states}. Second, we introduce metrics for FAQ information quality (FIQ) with respect to questions, answers, and answers to corresponding questions. Third, we use FIQs to analyze US FAQs to identify leading, mainstream and lagging content practices and corresponding states. Finally, we identify what states across the spectrum can do to improve FAQ quality and thus, the overall information ecosystem. Across all 50 U.S. states, 12% were identified as leaders and 8% as laggards for FIQS\textsubscript{voter}, while 14% were leaders and 12% laggards for FIQS\textsubscript{developer}.
- Abstract(参考訳): 正確な情報は民主主義にとって不可欠であり、有権者が代表者について情報的な決定をし、責任を負うようにする権限を与える。
アメリカ合衆国では、州選挙委員会(SECs)は、しばしば法律によって要求されるが、有権者に対して頻繁な質問(FAQs)の主要な提供者であり、LWV(League of Women Voters)のような非営利団体のような二次的な情報源は、彼らの情報不足を補おうとしている。
しかし、驚くべきことに、私たちの知る限りでは、包括的なFAQを持つ情報源も、国家レベルでデータを分析して現在のプラクティスと現状を改善する方法を特定する研究も存在しない。
本稿は、米国全州をカバーするVoter FAQに関する最初のデータセットを提供することによって、この問題に対処する。
第2に,質問,回答,回答に対するFAQ情報品質(FIQ)の指標を紹介する。
第3に、FIQを使って米国のFAQを分析し、リード、メインストリーム、ラグジュアリーなコンテンツプラクティスと対応する状態を特定します。
最後に、FAQの品質を向上させるために、スペクトル全体にわたって何ができるかを特定し、その結果、全体的な情報エコシステムを実現する。
FIQS\textsubscript{voter}は12%、FIQS\textsubscript{developer}は14%であった。
関連論文リスト
- GUIDEQ: Framework for Guided Questioning for progressive informational collection and classification [16.66633426354087]
質問回答(QA)は、情報収集によるテキスト分類などのタスクにおいて重要な部分である。
当社のGUIDEQは、ガイド付き質問に対して、部分的な情報をさらに前進させるための新しいフレームワークを提供する。
論文 参考訳(メタデータ) (2024-11-08T22:03:54Z) - CLARINET: Augmenting Language Models to Ask Clarification Questions for Retrieval [52.134133938779776]
CLARINETは,回答が正しい候補の確実性を最大化する質問を選択することで,情報的明確化を問うシステムである。
提案手法は,大規模言語モデル(LLM)を検索分布の条件付きで拡張し,各ターンで真の候補のランクを最大化する問題を生成する。
論文 参考訳(メタデータ) (2024-04-28T18:21:31Z) - Self-Bootstrapped Visual-Language Model for Knowledge Selection and Question Answering [11.183845003492964]
私たちはPassage Retrieval(DPR)を使って関連する知識を取得し、モデルが質問に答える手助けをします。
DPRは自然言語空間における検索を行うが、画像情報の総合的な取得は保証されない。
本稿では、視覚言語モデルを利用して、DPRが検索した重要な知識を選択し、質問に答える新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T07:44:20Z) - Measuring the Quality of Answers in Political Q&As with Large Language Models [0.5261718469769449]
本稿では,政治質問・回答セッションにおける回答の質を評価するための新しい手法を提案する。
提案手法は,全回答の精度に基づいて,回答の質を計測することから成り立っている。
論文 参考訳(メタデータ) (2024-04-12T21:16:53Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - HeteroQA: Learning towards Question-and-Answering through Multiple
Information Sources via Heterogeneous Graph Modeling [50.39787601462344]
コミュニティ質問回答(Community Question Answering, CQA)は、Eコマースやオンラインユーザコミュニティなど、多くのシナリオで利用することができる、明確に定義されたタスクである。
CQAの手法のほとんどは、知識を抽出し、ユーザの質問に答えるために記事やウィキペディアしか含まない。
ユーザコミュニティに複数の情報ソース(MIS)を組み込んで回答を自動的に生成する問合せ対応の異種グラフ変換器を提案する。
論文 参考訳(メタデータ) (2021-12-27T10:16:43Z) - Improving the Question Answering Quality using Answer Candidate
Filtering based on Natural-Language Features [117.44028458220427]
本稿では,質問応答(QA)の品質をいかに改善できるかという課題に対処する。
私たちの主な貢献は、QAシステムが提供する間違った回答を識別できるアプローチです。
特に,提案手法は誤答の大部分を除去しつつ,その可能性を示した。
論文 参考訳(メタデータ) (2021-12-10T11:09:44Z) - Searching for Representation: A sociotechnical audit of googling for
members of U.S. Congress [2.4366811507669124]
トップのGoogle検索結果の10%は、カリフォルニア州の議員を特定するために検索を利用する情報検索者を誤解させる可能性が高い。
誤解を招く結果の70%は、有機検索結果の上の特徴的スニペットに現れる。
特定された要因には、Googleがウィキペディアに大きく依存していること、権威の欠如、マシンパーサブル、地理的な位置に基づく選出された役人の身元に関する高精度なデータ、検索エンジンの未特定クエリの扱いなどがある。
論文 参考訳(メタデータ) (2021-09-14T23:13:02Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - MS-Ranker: Accumulating Evidence from Potentially Correct Candidates for
Answer Selection [59.95429407899612]
そこで我々は,MS-Ranker という,新しい強化学習に基づくマルチステップランキングモデルを提案する。
我々は、候補の潜在的な正しさを明示的に考慮し、ゲーティング機構で証拠を更新する。
我々のモデルは、外部リソースに依存しない既存の手法を著しく上回ります。
論文 参考訳(メタデータ) (2020-10-10T10:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。