論文の概要: A Design-based Solution for Causal Inference with Text: Can a Language Model Be Too Large?
- arxiv url: http://arxiv.org/abs/2510.08758v1
- Date: Thu, 09 Oct 2025 19:17:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.599933
- Title: A Design-based Solution for Causal Inference with Text: Can a Language Model Be Too Large?
- Title(参考訳): テキストによる因果推論のための設計ベースソリューション:言語モデルが大きすぎるか?
- Authors: Graham Tierney, Srikar Katta, Christopher Bail, Sunshine Hillygus, Alexander Volfovsky,
- Abstract要約: 社会科学の質問は、言語特性が聴衆の態度や行動にどう影響するかを問う。
近年の文献では、処理と結果の両方をうまく予測するテキストの潜在表現を学習するために、大きな言語モデルを適用することを提案する。
そこで我々は, 遅延共起処理, 重複問題回避, 治療効果を不偏に見積もる新しい実験設計を提案する。
- 参考スコア(独自算出の注目度): 39.56626912746574
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many social science questions ask how linguistic properties causally affect an audience's attitudes and behaviors. Because text properties are often interlinked (e.g., angry reviews use profane language), we must control for possible latent confounding to isolate causal effects. Recent literature proposes adapting large language models (LLMs) to learn latent representations of text that successfully predict both treatment and the outcome. However, because the treatment is a component of the text, these deep learning methods risk learning representations that actually encode the treatment itself, inducing overlap bias. Rather than depending on post-hoc adjustments, we introduce a new experimental design that handles latent confounding, avoids the overlap issue, and unbiasedly estimates treatment effects. We apply this design in an experiment evaluating the persuasiveness of expressing humility in political communication. Methodologically, we demonstrate that LLM-based methods perform worse than even simple bag-of-words models using our real text and outcomes from our experiment. Substantively, we isolate the causal effect of expressing humility on the perceived persuasiveness of political statements, offering new insights on communication effects for social media platforms, policy makers, and social scientists.
- Abstract(参考訳): 多くの社会科学的な質問は、言語特性が聴衆の態度や行動にどう影響するかを問う。
テキストプロパティは、しばしば相互にリンクされている(例えば、怒ったレビューはプロファン語を使用する)ため、因果関係を分離するためには、潜在的に潜伏したコンバウンディングを制御しなければならない。
近年の文献では、処理と結果の両方をうまく予測するテキストの潜在表現を学習するために、大きな言語モデル(LLM)を適用することを提案する。
しかし、この処理はテキストの構成要素であるため、これらの深層学習手法は、実際の処理自体を符号化する学習表現を危険にさらし、重複バイアスを引き起こす。
ポストホックの調整に頼らず,潜伏条件の処理,重複問題回避,治療効果の偏りのない推定を行う新しい実験設計を導入する。
このデザインを政治コミュニケーションにおける謙虚表現の説得性を評価する実験に応用する。
提案手法は,本実験から得られた実文と結果を用いて,単純な単語のバッグ・オブ・ワードモデルよりも高い性能を示すことを示す。
政治声明の説得力に対する謙虚な表現の因果的効果を分離し,ソーシャルメディアプラットフォーム,政策立案者,社会科学者に対するコミュニケーション効果に関する新たな洞察を提供する。
関連論文リスト
- Causal Inference on Outcomes Learned from Text [1.283555556182245]
ランダム化試行において,テキストの因果推論を行う機械学習ツールを提案する。
簡単なエコノメトリの枠組みに基づいて、我々の手順は3つの疑問に対処する: 第一に、治療によって影響を受けるテキストは? 第二に、どの結果が影響するか? そして第三に、因果効果の完全な説明はどれくらい完全か?
論文 参考訳(メタデータ) (2025-03-02T04:36:27Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - Outcome-Constrained Large Language Models for Countering Hate Speech [10.434435022492723]
本研究は,会話結果に制約された反音声を生成する手法を開発することを目的とする。
我々は,大言語モデル(LLM)を用いて,テキスト生成プロセスに2つの望ましい会話結果を導入する実験を行った。
評価結果から,提案手法が望まれる結果に対して効果的に対応できることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:44:06Z) - Natural Language Decompositions of Implicit Content Enable Better Text Representations [52.992875653864076]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Do Large Language Models Show Decision Heuristics Similar to Humans? A
Case Study Using GPT-3.5 [0.0]
GPT-3.5は、ChatGPTと呼ばれる会話エージェントをサポートするLLMの例である。
本研究では,ChatGPTがバイアスを示すか,その他の決定効果を示すかを決定するために,一連の新しいプロンプトを用いた。
また、同じプロンプトをヒトでもテストしました。
論文 参考訳(メタデータ) (2023-05-08T01:02:52Z) - Language with Vision: a Study on Grounded Word and Sentence Embeddings [6.231247903840833]
視覚における接地言語は、認知的に妥当な単語と文表現の構築を目指す研究の活発な分野である。
本研究では,事前学習した単語埋め込みのための基礎計算モデルを提案する。
本モデルは,テキスト埋め込みを視覚情報と整合させることにより,言語と視覚の相互作用を効果的にバランスさせる。
論文 参考訳(メタデータ) (2022-06-17T15:04:05Z) - Causal Effects of Linguistic Properties [41.65859219291606]
観察データを用いて言語特性の因果効果を推定する問題を考察する。
言語特性の因果効果を推定するアルゴリズムであるTextCauseを紹介する。
提案手法は,Amazonのレビュー感情の効果を推定する際に,関連する手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-24T15:43:37Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。