論文の概要: "We Demand Justice!": Towards Grounding Political Text in Social Context
- arxiv url: http://arxiv.org/abs/2311.09106v1
- Date: Wed, 15 Nov 2023 16:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 15:06:03.920692
- Title: "We Demand Justice!": Towards Grounding Political Text in Social Context
- Title(参考訳): 『正義を要求!』:社会的文脈における政治的テキストの基盤を目指して
- Authors: Rajkumar Pujari and Chengfei Wu and Dan Goldwasser
- Abstract要約: 米国の政治家によるソーシャルメディアの談話は、しばしば「政治的スペクトルの対立する側で使われる、見事に類似した言語」から成り立っている。
本稿では,そのような曖昧な文を計算環境で完全に理解するために必要な文脈を定義し,特徴づける。
本稿では,テキストの現実的文脈を効果的に理解する必要がある2つの挑戦的データセットを提案する。
- 参考スコア(独自算出の注目度): 22.016345507132808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media discourse from US politicians frequently consists of 'seemingly
similar language used by opposing sides of the political spectrum'. But often,
it translates to starkly contrasting real-world actions. For instance, "We need
to keep our students safe from mass shootings" may signal either "arming
teachers to stop the shooter" or "banning guns to reduce mass shootings"
depending on who says it and their political stance on the issue. In this
paper, we define and characterize the context that is required to fully
understand such ambiguous statements in a computational setting and ground them
in real-world entities, actions, and attitudes. To that end, we propose two
challenging datasets that require an understanding of the real-world context of
the text to be solved effectively. We benchmark these datasets against
baselines built upon large pre-trained models such as BERT, RoBERTa, GPT-3,
etc. Additionally, we develop and benchmark more structured baselines building
upon existing 'Discourse Contextualization Framework' and 'Political Actor
Representation' models. We perform analysis of the datasets and baseline
predictions to obtain further insights into the pragmatic language
understanding challenges posed by the proposed social grounding tasks.
- Abstract(参考訳): 米国の政治家からのソーシャルメディアの談話は、しばしば「政治的スペクトルの反対側によって使われる見事に類似した言語」で構成されている。
しかし多くの場合、現実のアクションとは全く対照的だ。
例えば、「学生が銃乱射事件から安全を守る必要がある」ということは、「銃乱射事件を止めるために教師を武装させる」か、「銃乱射事件を減らすために銃を止める」かのどちらかだ。
本稿では,そのような曖昧な文を計算環境において完全に理解し,現実の実体,行動,態度に根ざすために必要な文脈を定義し,特徴付ける。
そこで本研究では,テキストの現実的コンテキストを効果的に理解する必要がある2つの課題データセットを提案する。
BERT,RoBERTa,GPT-3など,トレーニング済みの大きなモデル上に構築されたベースラインに対して,これらのデータセットをベンチマークする。
さらに,既存の「談話文脈化フレームワーク」と「政治アクター表現」モデルに基づいて,より構造化されたベースラインを構築し,ベンチマークする。
提案するソーシャルグラウンドタスクによって生じる実用的言語理解課題に対するさらなる洞察を得るために,データセットとベースライン予測の分析を行う。
関連論文リスト
- Towards "Differential AI Psychology" and in-context Value-driven Statement Alignment with Moral Foundations Theory [0.0]
本研究は,Moral Foundationのアンケートにおいて,パーソナライズされた言語モデルと調査参加者のアライメントについて検討する。
我々は、異なる政治的ペルソナにテキスト・トゥ・テキスト・モデルを適用し、繰り返しアンケートを行い、ペルソナとモデルの組み合わせの合成人口を生成する。
その結果, 適応型モデルでは, 政治的イデオロギーに対する調査をリードする評価が困難であることが示唆された。
論文 参考訳(メタデータ) (2024-08-21T08:20:41Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Transcending the Attention Paradigm: Representation Learning from
Geospatial Social Media Data [1.8311821879979955]
本研究では,分散パターンの源泉としてソーシャルメディアデータを調べることで,パフォーマンスベンチマークのパラダイムに挑戦する。
これらの抽象的関係を適切に表現するために、この研究では、経験的ソーシャルメディアコーパスを要素成分に分解し、人口密度の場所をまたいだ20億以上のツイートを分析した。
論文 参考訳(メタデータ) (2023-10-09T03:27:05Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Optimizing text representations to capture (dis)similarity between
political parties [1.2891210250935146]
政党間の相互類似性をモデル化する問題を考察する。
我々の研究課題は、ロバストなテキスト表現を作成するのに必要な構造情報のレベルである。
我々は、2021年の連邦選挙におけるドイツの政党の宣言について、我々のモデルを評価した。
論文 参考訳(メタデータ) (2022-10-21T14:24:57Z) - PAR: Political Actor Representation Learning with Social Context and
Expert Knowledge [45.215862050840116]
我々は,textbfPolitical textbfActor textbfRepresentation学習フレームワークであるtextbfPARを提案する。
我々は,社会的文脈情報を活用するために,議員に関する事実文を検索し,抽出する。
次に、社会的文脈を取り入れた異種情報ネットワークを構築し、リレーショナルグラフニューラルネットワークを用いて立法者表現を学習する。
論文 参考訳(メタデータ) (2022-10-15T19:28:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。