論文の概要: Tracing Influence at Scale: A Contrastive Learning Approach to Linking
Public Comments and Regulator Responses
- arxiv url: http://arxiv.org/abs/2311.14871v1
- Date: Fri, 24 Nov 2023 23:32:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 23:09:37.015867
- Title: Tracing Influence at Scale: A Contrastive Learning Approach to Linking
Public Comments and Regulator Responses
- Title(参考訳): 大規模影響の追跡:パブリックコメントと規制当局の反応をリンクするコントラスト学習アプローチ
- Authors: Linzi Xing, Brad Hackinen, Giuseppe Carenini
- Abstract要約: 米連邦規制当局(Federal Regulators)は、企業や利害団体、一般市民から毎年100万件以上のコメント状を受け取り、いずれも提案された規制の変更を提唱している。
特定のコメントの影響を測定するのは難しいのは、規制当局はコメントに応答する必要があるが、どのコメントに対処しているかを特定する必要はないからだ。
本稿では,公開コメントからのテキストとレギュレータによる応答のマッチングを目的としたニューラルモデルを,反復的コントラスト法を用いて訓練することにより,シンプルで効果的な解を提案する。
- 参考スコア(独自算出の注目度): 22.240224575601644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: U.S. Federal Regulators receive over one million comment letters each year
from businesses, interest groups, and members of the public, all advocating for
changes to proposed regulations. These comments are believed to have
wide-ranging impacts on public policy. However, measuring the impact of
specific comments is challenging because regulators are required to respond to
comments but they do not have to specify which comments they are addressing. In
this paper, we propose a simple yet effective solution to this problem by using
an iterative contrastive method to train a neural model aiming for matching
text from public comments to responses written by regulators. We demonstrate
that our proposal substantially outperforms a set of selected text-matching
baselines on a human-annotated test set. Furthermore, it delivers performance
comparable to the most advanced gigantic language model (i.e., GPT-4), and is
more cost-effective when handling comments and regulator responses matching in
larger scale.
- Abstract(参考訳): 米国の連邦規制当局は毎年、企業、利害団体、および一般市民から100万通以上のコメントレターを受け取り、いずれも提案された規則の変更を提唱している。
これらのコメントは公共政策に幅広い影響を与えていると考えられている。
しかし、特定のコメントの影響を測定することは、規制当局がコメントに対応する必要があるが、対処しているコメントを指定する必要はないため、難しい。
本稿では,公開コメントから回答へのテキストマッチングを目的としたニューラルネットワークモデルを反復的コントラスト法を用いて学習することにより,この問題に対する単純かつ効果的な解法を提案する。
提案手法は,人間がアノテーションしたテストセット上で選択したテキストマッチングベースラインを実質的に上回っていることを示す。
さらに、最も先進的な巨大言語モデル(GPT-4)に匹敵するパフォーマンスを提供し、より大規模なコメント処理やレギュレータ応答のマッチングにおいてコスト効率が高い。
関連論文リスト
- Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - LLM-based Rewriting of Inappropriate Argumentation using Reinforcement Learning from Machine Feedback [16.57980268646285]
本稿では,議論における不適切な言語を計算的に緩和する方法について検討する。
コンテンツ保存と適切性のバランスをとるための強化学習に基づく書き直し手法を提案する。
絶対的および相対的評価研究において,報酬関数の重み付け方式について検討した。
論文 参考訳(メタデータ) (2024-06-05T15:18:08Z) - Unintended Impacts of LLM Alignment on Global Representation [62.6579934112071]
開発者は、RLHF(Reinforcement Learning From Human Feedback)やDPO(Direct Preference Optimization)など、様々な手順で、大規模言語モデル(LLM)をユーザの好みに合わせることができる。
我々は、アライメントが、グローバルな表現の3つの軸、すなわち、英語方言、多言語主義、世界各国の意見にどのように影響するかを探求する。
これらの意図しない影響に繋がる設計決定と、より公平な選好チューニングの推奨を議論することで、私たちは結論付けました。
論文 参考訳(メタデータ) (2024-02-22T23:31:22Z) - Aligning Large Language Models by On-Policy Self-Judgment [49.31895979525054]
大規模言語モデルと人間の嗜好を整合させる既存のアプローチは、オンライン学習のために別々の報酬モデル(RM)を必要とするトレードオフに直面しています。
本稿では,オンライン学習を行う新たなアライメントフレームワークSELF-JUDGEを提案する。
また, さらなる評価を行なわずに, サンプリング自体がさらなる性能向上に寄与することを示した。
論文 参考訳(メタデータ) (2024-02-17T11:25:26Z) - When Reviewers Lock Horn: Finding Disagreement in Scientific Peer
Reviews [24.875901048855077]
本稿では,ある記事のレビュアー間での矛盾を自動的に識別する新しいタスクを紹介する。
我々の知識を最大限に活用するために、ピアレビュアー間での意見の不一致を自動的に識別する最初の試みを行う。
論文 参考訳(メタデータ) (2023-10-28T11:57:51Z) - Large Language Models are not Fair Evaluators [60.27164804083752]
候補回答の品質ランキングは,文脈の出現順序を変えることで容易にハックできることがわかった。
この操作により、評価結果をスキューし、一方のモデルを他方よりもかなり優れているようにすることができる。
この問題を緩和するための3つのシンプルかつ効果的な戦略を持つフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T07:41:03Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - A Large Scale Randomized Controlled Trial on Herding in Peer-Review
Discussions [33.261698377782075]
我々は、レビュアーや上級意思決定者が議論で提示された最初の議論に不当に影響されるかどうかを理解することを目的としている。
具体的には,論文の結果に対する議論開始者の意見の条件因果効果をテストすることを目的として,ランダム化試験を設計・実施する。
論文 参考訳(メタデータ) (2020-11-30T18:23:07Z) - Deep Just-In-Time Inconsistency Detection Between Comments and Source
Code [51.00904399653609]
本稿では,コード本体の変更によりコメントが矛盾するかどうかを検出することを目的とする。
私たちは、コメントとコードの変更を関連付けるディープラーニングアプローチを開発しています。
より包括的な自動コメント更新システムを構築するために,コメント更新モデルと組み合わせて提案手法の有用性を示す。
論文 参考訳(メタデータ) (2020-10-04T16:49:28Z) - Regulating algorithmic filtering on social media [14.873907857806357]
ソーシャルメディアプラットフォームは、食事の選択から投票の好みまで、ユーザの認識と決定に影響を与える能力を持っている。
多くの人はフィルタリングアルゴリズムの規制を要求しているが、規則の設計と強制は依然として難しい。
規制がプラットフォームに高いパフォーマンスコストを課さない条件があることが分かりました。
論文 参考訳(メタデータ) (2020-06-17T04:14:20Z) - A Legal Approach to Hate Speech: Operationalizing the EU's Legal
Framework against the Expression of Hatred as an NLP Task [2.248133901806859]
本稿では,刑法に従属するか否かの判断を運用することで,音声検出を嫌う「法的アプローチ」を提案する。
法的な判断を一連の単純なサブ決定に分解することで、素人でさえ一貫して注釈を付けることができることを示す。
論文 参考訳(メタデータ) (2020-04-07T14:13:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。