論文の概要: Tracing Influence at Scale: A Contrastive Learning Approach to Linking
Public Comments and Regulator Responses
- arxiv url: http://arxiv.org/abs/2311.14871v1
- Date: Fri, 24 Nov 2023 23:32:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 23:09:37.015867
- Title: Tracing Influence at Scale: A Contrastive Learning Approach to Linking
Public Comments and Regulator Responses
- Title(参考訳): 大規模影響の追跡:パブリックコメントと規制当局の反応をリンクするコントラスト学習アプローチ
- Authors: Linzi Xing, Brad Hackinen, Giuseppe Carenini
- Abstract要約: 米連邦規制当局(Federal Regulators)は、企業や利害団体、一般市民から毎年100万件以上のコメント状を受け取り、いずれも提案された規制の変更を提唱している。
特定のコメントの影響を測定するのは難しいのは、規制当局はコメントに応答する必要があるが、どのコメントに対処しているかを特定する必要はないからだ。
本稿では,公開コメントからのテキストとレギュレータによる応答のマッチングを目的としたニューラルモデルを,反復的コントラスト法を用いて訓練することにより,シンプルで効果的な解を提案する。
- 参考スコア(独自算出の注目度): 22.240224575601644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: U.S. Federal Regulators receive over one million comment letters each year
from businesses, interest groups, and members of the public, all advocating for
changes to proposed regulations. These comments are believed to have
wide-ranging impacts on public policy. However, measuring the impact of
specific comments is challenging because regulators are required to respond to
comments but they do not have to specify which comments they are addressing. In
this paper, we propose a simple yet effective solution to this problem by using
an iterative contrastive method to train a neural model aiming for matching
text from public comments to responses written by regulators. We demonstrate
that our proposal substantially outperforms a set of selected text-matching
baselines on a human-annotated test set. Furthermore, it delivers performance
comparable to the most advanced gigantic language model (i.e., GPT-4), and is
more cost-effective when handling comments and regulator responses matching in
larger scale.
- Abstract(参考訳): 米国の連邦規制当局は毎年、企業、利害団体、および一般市民から100万通以上のコメントレターを受け取り、いずれも提案された規則の変更を提唱している。
これらのコメントは公共政策に幅広い影響を与えていると考えられている。
しかし、特定のコメントの影響を測定することは、規制当局がコメントに対応する必要があるが、対処しているコメントを指定する必要はないため、難しい。
本稿では,公開コメントから回答へのテキストマッチングを目的としたニューラルネットワークモデルを反復的コントラスト法を用いて学習することにより,この問題に対する単純かつ効果的な解法を提案する。
提案手法は,人間がアノテーションしたテストセット上で選択したテキストマッチングベースラインを実質的に上回っていることを示す。
さらに、最も先進的な巨大言語モデル(GPT-4)に匹敵するパフォーマンスを提供し、より大規模なコメント処理やレギュレータ応答のマッチングにおいてコスト効率が高い。
関連論文リスト
- Unintended Impacts of LLM Alignment on Global Representation [70.42130533150728]
開発者は、RLHF(Reinforcement Learning From Human Feedback)やDPO(Direct Preference Optimization)など、様々な手順で、大規模言語モデル(LLM)をユーザの好みに合わせることができる。
我々は、アライメントが、グローバルな表現の3つの軸、すなわち、英語方言、多言語主義、世界各国の意見にどのように影響するかを探求する。
これらの意図しない影響に繋がる設計決定と、より公平な選好チューニングの推奨を議論することで、私たちは結論付けました。
論文 参考訳(メタデータ) (2024-02-22T23:31:22Z) - RLVF: Learning from Verbal Feedback without Overgeneralization [94.19501420241188]
本稿では,このような過度な一般化を伴わずに,言語フィードバックを取り入れることの課題について検討する。
制約付き選好最適化(C3PO)を用いた新しい文脈的批評手法を開発した。
提案手法は,他の文脈に対する既存行動を維持しながら,関連するシナリオに対して効果的な言語フィードバックを適用する。
論文 参考訳(メタデータ) (2024-02-16T18:50:24Z) - When Reviewers Lock Horn: Finding Disagreement in Scientific Peer
Reviews [24.875901048855077]
本稿では,ある記事のレビュアー間での矛盾を自動的に識別する新しいタスクを紹介する。
我々の知識を最大限に活用するために、ピアレビュアー間での意見の不一致を自動的に識別する最初の試みを行う。
論文 参考訳(メタデータ) (2023-10-28T11:57:51Z) - Large Language Models are not Fair Evaluators [60.27164804083752]
候補回答の品質ランキングは,文脈の出現順序を変えることで容易にハックできることがわかった。
この操作により、評価結果をスキューし、一方のモデルを他方よりもかなり優れているようにすることができる。
この問題を緩和するための3つのシンプルかつ効果的な戦略を持つフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T07:41:03Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - PCL: Peer-Contrastive Learning with Diverse Augmentations for
Unsupervised Sentence Embeddings [69.87899694963251]
本稿では,多彩な拡張を伴う新しいピアコントラスト学習(PCL)を提案する。
PCLは、教師なし文の埋め込みのために、グループレベルで様々な対照的な正と負を構成する。
PCLはピア陽性のコントラストとピアネットワークの協調が可能である。
論文 参考訳(メタデータ) (2022-01-28T13:02:41Z) - A Large Scale Randomized Controlled Trial on Herding in Peer-Review
Discussions [33.261698377782075]
我々は、レビュアーや上級意思決定者が議論で提示された最初の議論に不当に影響されるかどうかを理解することを目的としている。
具体的には,論文の結果に対する議論開始者の意見の条件因果効果をテストすることを目的として,ランダム化試験を設計・実施する。
論文 参考訳(メタデータ) (2020-11-30T18:23:07Z) - Deep Just-In-Time Inconsistency Detection Between Comments and Source
Code [51.00904399653609]
本稿では,コード本体の変更によりコメントが矛盾するかどうかを検出することを目的とする。
私たちは、コメントとコードの変更を関連付けるディープラーニングアプローチを開発しています。
より包括的な自動コメント更新システムを構築するために,コメント更新モデルと組み合わせて提案手法の有用性を示す。
論文 参考訳(メタデータ) (2020-10-04T16:49:28Z) - Regulating algorithmic filtering on social media [14.873907857806357]
ソーシャルメディアプラットフォームは、食事の選択から投票の好みまで、ユーザの認識と決定に影響を与える能力を持っている。
多くの人はフィルタリングアルゴリズムの規制を要求しているが、規則の設計と強制は依然として難しい。
規制がプラットフォームに高いパフォーマンスコストを課さない条件があることが分かりました。
論文 参考訳(メタデータ) (2020-06-17T04:14:20Z) - How Useful are Reviews for Recommendation? A Critical Review and
Potential Improvements [8.471274313213092]
本稿では,レビューテキストを用いてレコメンデーションシステムの改善を目指す,新たな作業体系について検討する。
実験条件やデータ前処理に変化はあるものの, 論文間で結果がコピーされていることから, 報告結果にいくつかの相違点がみられた。
さらなる調査では、リコメンデーションのためのユーザレビューの"重要"に関して、はるかに大きな問題に関する議論が求められている。
論文 参考訳(メタデータ) (2020-05-25T16:30:05Z) - A Legal Approach to Hate Speech: Operationalizing the EU's Legal
Framework against the Expression of Hatred as an NLP Task [2.248133901806859]
本稿では,刑法に従属するか否かの判断を運用することで,音声検出を嫌う「法的アプローチ」を提案する。
法的な判断を一連の単純なサブ決定に分解することで、素人でさえ一貫して注釈を付けることができることを示す。
論文 参考訳(メタデータ) (2020-04-07T14:13:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。