論文の概要: Multiscale Parallel Tempering for Fast Sampling on Redistricting Plans
- arxiv url: http://arxiv.org/abs/2401.17455v1
- Date: Tue, 30 Jan 2024 21:33:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 16:14:54.053043
- Title: Multiscale Parallel Tempering for Fast Sampling on Redistricting Plans
- Title(参考訳): 分割計画における高速サンプリングのためのマルチスケール並列テンパリング
- Authors: Gabriel Chuang, Gregory Herschlag, Jonathan C. Mattingly
- Abstract要約: 説得力のある方法は、計画と中立に描画された再限定計画のアンサンブルを比較することである。
アンサンブルと所定の計画との党派差を監査するためには、非党派基準が一致していることを保証する必要がある。
本研究では,各スケールで局所移動を行うマルチスケール並列テンパリング手法を提案する。
- 参考スコア(独自算出の注目度): 1.1233768932957773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When auditing a redistricting plan, a persuasive method is to compare the
plan with an ensemble of neutrally drawn redistricting plans. Ensembles are
generated via algorithms that sample distributions on balanced graph
partitions. To audit the partisan difference between the ensemble and a given
plan, one must ensure that the non-partisan criteria are matched so that we may
conclude that partisan differences come from bias rather than, for example,
levels of compactness or differences in community preservation. Certain
sampling algorithms allow one to explicitly state the policy-based probability
distribution on plans, however, these algorithms have shown poor mixing times
for large graphs (i.e. redistricting spaces) for all but a few specialized
measures. In this work, we generate a multiscale parallel tempering approach
that makes local moves at each scale. The local moves allow us to adopt a wide
variety of policy-based measures. We examine our method in the state of
Connecticut and succeed at achieving fast mixing on a policy-based distribution
that has never before been sampled at this scale. Our algorithm shows promise
to expand to a significantly wider class of measures that will (i) allow for
more principled and situation-based comparisons and (ii) probe for the typical
partisan impact that policy can have on redistricting.
- Abstract(参考訳): 再編成計画の監査においては、この計画と中立的に描画された再配置計画のアンサンブルを比較する。
アンサンブルは、バランスのとれたグラフ分割の分布をサンプリングするアルゴリズムによって生成される。
アンサンブルと所定の計画との党派差を監査するためには、例えば、コンパクト性のレベルや地域保存の差異よりも、党派差が偏見から生じると結論付けるために、非党派基準が一致していることを保証する必要がある。
特定のサンプリングアルゴリズムにより、計画上のポリシーに基づく確率分布を明示的に記述することができるが、これらのアルゴリズムは、いくつかの特別な測度を除いて、大きなグラフ(すなわち再制限空間)に対する混合時間が低かった。
本研究では,各スケールで局所的な移動を行うマルチスケール並列テンパリング手法を提案する。
地域の動きは、幅広い政策に基づく措置を取り入れることを可能にします。
本手法をコネチカット州で検討し、この規模でサンプリングされたことのない政策ベースの分布を高速に混合することに成功した。
我々のアルゴリズムは かなり広い範囲に 拡大すると約束しています
(i)より原則と状況に基づく比較を許容する。
(ii)政策が再分権に与える典型的な党派的影響についての調査。
関連論文リスト
- Statistical Analysis of Policy Space Compression Problem [54.1754937830779]
政策探索手法は強化学習において重要であり、継続的な状態反応と部分的に観察可能な問題に対処するための枠組みを提供する。
政策圧縮による政策空間の削減は、学習プロセスを加速するための強力で報酬のないアプローチとして現れます。
この手法は方針空間をより小さく代表的な集合に凝縮し、元の効果のほとんどを維持している。
論文 参考訳(メタデータ) (2024-11-15T02:46:55Z) - Information Capacity Regret Bounds for Bandits with Mediator Feedback [55.269551124587224]
我々は,政策セットの複雑さに対する情報理論尺度として,政策セットの容量を導入する。
古典的なEXP4アルゴリズムを採用することで、ポリシーセットの容量に応じて、新たな後悔の限界を提供する。
ポリシーセットファミリの選択については、キャパシティと同じようなスケールで、ほぼ整合性の低い境界を証明します。
論文 参考訳(メタデータ) (2024-02-15T19:18:47Z) - Off-Policy Evaluation for Large Action Spaces via Policy Convolution [60.6953713877886]
ポリシ・コンボリューション(Policy Convolution)のファミリーは、アクション内の潜在構造を使用して、ログとターゲットポリシを戦略的に畳み込みます。
合成およびベンチマークデータセットの実験では、PCを使用する場合の平均二乗誤差(MSE)が顕著に改善されている。
論文 参考訳(メタデータ) (2023-10-24T01:00:01Z) - Policy Dispersion in Non-Markovian Environment [53.05904889617441]
本稿では,非マルコフ環境下での国家行動ペアの歴史から,多様な政策の学習を試みる。
まず、ポリシー埋め込みを学習するために、トランスフォーマーベースの手法を採用する。
次に,政策埋め込みを積み重ねて分散行列を構築し,多様な政策の集合を誘導する。
論文 参考訳(メタデータ) (2023-02-28T11:58:39Z) - Mathematically Quantifying Non-responsiveness of the 2021 Georgia
Congressional Districting Plan [3.097163558730473]
並列テンパリング法とReComを併用したメトロポリケートサンプリング手法を応用した。
ジョージア州における地区計画の最初の事例研究を通じて、これらの改善を開拓する。
我々の分析では、ジョージア州の選挙は、この制定された計画の下で、確実に9人の共和党員と5人の民主党員を選出すると予想している。
論文 参考訳(メタデータ) (2022-03-13T02:58:32Z) - Measuring Geometric Similarity Across Possible Plans for Automated
Redistricting [0.0]
本稿では,2つの計画の間に同一の選挙区に留まる州の面積や人口の比率に対応する,類似性の解釈的尺度とそれに対応する代入行列を簡潔に紹介する。
次に、直感的な時間でこの測度を計算する方法を示し、潜在的なユースケースを簡潔に示す。
論文 参考訳(メタデータ) (2021-11-17T03:37:25Z) - Colorado in Context: Congressional Redistricting and Competing Fairness
Criteria in Colorado [0.0]
我々は、合理的な再分権計画の大きなランダムサンプルを生成し、2018年の州全体の選挙でのリターンを用いて、各地区の党派バランスを決定する。
本研究では, 党派的な成果, 分割される郡数, 計画における競争地区数との関係について検討する。
論文 参考訳(メタデータ) (2020-11-11T20:05:50Z) - Sequential Monte Carlo for Sampling Balanced and Compact Redistricting
Plans [0.0]
本稿では,現実的な目標分布に収束する再限定計画のサンプルを生成する,SMC(Sequential Monte Carlo)アルゴリズムを提案する。
提案アルゴリズムの精度を,すべての再分割計画を列挙可能な小さなマップを用いて検証する。
次に、SMCアルゴリズムを用いて、ペンシルベニア州の最近の有名な再分権事件において、関係当事者が提出したいくつかの地図のパルチザン的含意を評価する。
論文 参考訳(メタデータ) (2020-08-13T23:26:34Z) - Implicit Distributional Reinforcement Learning [61.166030238490634]
2つのディープジェネレータネットワーク(DGN)上に構築された暗黙の分布型アクター批判(IDAC)
半単純アクター (SIA) は、フレキシブルなポリシー分布を利用する。
我々は,代表的OpenAI Gym環境において,IDACが最先端のアルゴリズムより優れていることを観察する。
論文 参考訳(メタデータ) (2020-07-13T02:52:18Z) - The Essential Role of Empirical Validation in Legislative Redistricting
Simulation [0.0]
提案手法は,計画の再分割を効率的に行うことのできる計算手法である。
このアルゴリズムは,数百の地理的単位を持つ状態に拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-06-17T20:51:43Z) - Variational Policy Propagation for Multi-agent Reinforcement Learning [68.26579560607597]
本稿では,エージェント間の相互作用を通じて,共役ポリシーを学習するために,変動ポリシー伝搬 (VPP) という,共役型多エージェント強化学習アルゴリズムを提案する。
共同政策がマルコフランダム場(Markov Random Field)であることは、いくつかの穏やかな条件下で証明し、それによって政策空間を効果的に減少させる。
我々は、マルコフ確率場から効率的に行動をサンプリングでき、全体的な政策が微分可能であるようなポリシーにおいて、変動推論を特別な微分可能な層として統合する。
論文 参考訳(メタデータ) (2020-04-19T15:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。