論文の概要: Mining Causality: AI-Assisted Search for Instrumental Variables
- arxiv url: http://arxiv.org/abs/2409.14202v2
- Date: Mon, 11 Nov 2024 04:41:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:03:51.402421
- Title: Mining Causality: AI-Assisted Search for Instrumental Variables
- Title(参考訳): マイニングの因果性:AIによる計測変数の探索
- Authors: Sukjin Han,
- Abstract要約: 本稿では,大規模言語モデルを用いて物語や反実的推論を通じて新たなIVを探索する。
我々は、多段階・ロールプレイング戦略が、経済エージェントの内在的意思決定プロセスに有効であると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The instrumental variables (IVs) method is a leading empirical strategy for causal inference. Finding IVs is a heuristic and creative process, and justifying its validity--especially exclusion restrictions--is largely rhetorical. We propose using large language models (LLMs) to search for new IVs through narratives and counterfactual reasoning, similar to how a human researcher would. The stark difference, however, is that LLMs can dramatically accelerate this process and explore an extremely large search space. We demonstrate how to construct prompts to search for potentially valid IVs. We contend that multi-step and role-playing prompting strategies are effective for simulating the endogenous decision-making processes of economic agents and for navigating language models through the realm of real-world scenarios. We apply our method to three well-known examples in economics: returns to schooling, supply and demand, and peer effects. We then extend our strategy to finding (i) control variables in regression and difference-in-differences and (ii) running variables in regression discontinuity designs.
- Abstract(参考訳): インストゥルメンタル変数(IVs)法は因果推論の先導的実証戦略である。
IVを見つけることはヒューリスティックで創造的なプロセスであり、その妥当性、特に排他的制限を正当化することは、主に修辞的である。
我々は,人間の研究者が行うような物語や反実的推論を通じて,大きな言語モデル (LLM) を用いて新たなIVを探索することを提案する。
しかし、大きな違いは、LLMがこの過程を劇的に加速し、非常に大きな探索空間を探索できる点である。
有効なIVを探索するためのプロンプトを構築する方法を示す。
我々は,多段階・ロールプレイング促進戦略が,経済エージェントの内在的意思決定プロセスのシミュレートや,実世界のシナリオを通して言語モデルをナビゲートする上で有効であると主張している。
我々は,経済学においてよく知られた3つの例,すなわち学校への回帰,供給と需要,およびピアエフェクトに適用する。
そして、我々の戦略を発見に拡張する
一 回帰及び差分差分における制御変数
(ii)回帰不連続設計における変数の実行。
関連論文リスト
- Using LLMs for Explaining Sets of Counterfactual Examples to Final Users [0.0]
自動意思決定シナリオでは、因果推論手法は基礎となるデータ生成プロセスを分析することができる。
カウンターファクトな例では、最小限の要素が変更される仮説的なシナリオを探求する。
本稿では,アクションの自然言語説明を生成するために,反事実を用いた新しい多段階パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-27T15:13:06Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - An Incomplete Loop: Deductive, Inductive, and Abductive Learning in Large Language Models [99.31449616860291]
現代の言語モデル(LM)は、異なる方法で新しいタスクを実行することを学べる。
次の命令では、ターゲットタスクは自然言語で明示的に記述され、少数ショットプロンプトでは、タスクは暗黙的に指定される。
命令推論では、LMはインコンテキストの例を示し、自然言語のタスク記述を生成するように促される。
論文 参考訳(メタデータ) (2024-04-03T19:31:56Z) - An Examination on the Effectiveness of Divide-and-Conquer Prompting in Large Language Models [28.139780691709266]
本研究では,DACプロンプトが性能向上に寄与する特定のタスクの特定を支援する。
実験結果が理論解析と一致した2つのケース(大整数算術と実数検証)を提示する。
論文 参考訳(メタデータ) (2024-02-08T02:37:30Z) - How FaR Are Large Language Models From Agents with Theory-of-Mind? [69.41586417697732]
大規模言語モデル(LLM)に対する新たな評価パラダイムを提案する。
T4Dは、他者の精神状態に関する推論を社会的シナリオにおける行動に結びつけるモデルを必要とする。
ゼロショットプロンプトフレームワークであるフォアシー・アンド・リフレクション(FaR)を導入し,LCMが今後の課題を予測できるように推論構造を提供する。
論文 参考訳(メタデータ) (2023-10-04T06:47:58Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Hypothesis Search: Inductive Reasoning with Language Models [39.03846394586811]
最近の研究は「文脈学習」を直接促すことで帰納的推論タスクにおける大規模言語モデルの評価を行っている
これは単純な帰納的タスクではうまく機能するが、Abstraction and Reasoning Corpus (ARC)のような複雑なタスクではうまく機能しない。
本研究では,複数の抽象レベルで明示的な仮説を生成することにより,LLMの帰納的推論能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-09-11T17:56:57Z) - Endogenous Macrodynamics in Algorithmic Recourse [52.87956177581998]
対実説明(CE)とアルゴリズム・リコース(AR)に関する既存の研究は、静的環境における個人に主に焦点を当ててきた。
既存の方法論の多くは、一般化されたフレームワークによってまとめて記述できることを示す。
次に、既存のフレームワークは、グループレベルでの言論の内在的ダイナミクスを研究する際にのみ明らかとなるような、隠された対外的関係のコストを考慮に入れていないと論じる。
論文 参考訳(メタデータ) (2023-08-16T07:36:58Z) - Instrumental Variables in Causal Inference and Machine Learning: A
Survey [26.678154268037595]
因果推論(英: Causal inference)とは、データに基づく変数間の因果関係に関する結論を引き出すために仮定を用いる過程である。
因果推論と機械学習の両分野における増大する文献は、計測変数(IV)の使用を提案する
本論文は、因果推論と機械学習の両方において、IV法とその応用を体系的かつ包括的に導入し、議論する最初の試みである。
論文 参考訳(メタデータ) (2022-12-12T08:59:04Z) - Identifying Causal Effects using Instrumental Time Series: Nuisance IV and Correcting for the Past [12.49477539101379]
ベクトル自己回帰(VAR)プロセスのような時系列モデルにおけるIV回帰を考察する。
i.d.テクニックの直接的な適用は、過去に依存性を正しく調整しなかったため、一般的には矛盾する。
我々は,その一貫性を証明し,その因果効果が分布一般化にどのように用いられるかを示す。
論文 参考訳(メタデータ) (2022-03-11T16:29:48Z) - Deterministic and Discriminative Imitation (D2-Imitation): Revisiting
Adversarial Imitation for Sample Efficiency [61.03922379081648]
本稿では,敵対的トレーニングやmin-max最適化を必要としない非政治的サンプル効率の手法を提案する。
実験の結果, D2-Imitation はサンプル効率の向上に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T19:36:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。