論文の概要: Mining Causality: AI-Assisted Search for Instrumental Variables
- arxiv url: http://arxiv.org/abs/2409.14202v2
- Date: Mon, 11 Nov 2024 04:41:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:35.040232
- Title: Mining Causality: AI-Assisted Search for Instrumental Variables
- Title(参考訳): マイニングの因果性:AIによる計測変数の探索
- Authors: Sukjin Han,
- Abstract要約: 本稿では,大規模言語モデルを用いて物語や反実的推論を通じて新たなIVを探索する。
我々は、多段階・ロールプレイング戦略が、経済エージェントの内在的意思決定プロセスに有効であると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The instrumental variables (IVs) method is a leading empirical strategy for causal inference. Finding IVs is a heuristic and creative process, and justifying its validity--especially exclusion restrictions--is largely rhetorical. We propose using large language models (LLMs) to search for new IVs through narratives and counterfactual reasoning, similar to how a human researcher would. The stark difference, however, is that LLMs can dramatically accelerate this process and explore an extremely large search space. We demonstrate how to construct prompts to search for potentially valid IVs. We contend that multi-step and role-playing prompting strategies are effective for simulating the endogenous decision-making processes of economic agents and for navigating language models through the realm of real-world scenarios. We apply our method to three well-known examples in economics: returns to schooling, supply and demand, and peer effects. We then extend our strategy to finding (i) control variables in regression and difference-in-differences and (ii) running variables in regression discontinuity designs.
- Abstract(参考訳): インストゥルメンタル変数(IVs)法は因果推論の先導的実証戦略である。
IVを見つけることはヒューリスティックで創造的なプロセスであり、その妥当性、特に排他的制限を正当化することは、主に修辞的である。
我々は,人間の研究者が行うような物語や反実的推論を通じて,大きな言語モデル (LLM) を用いて新たなIVを探索することを提案する。
しかし、大きな違いは、LLMがこの過程を劇的に加速し、非常に大きな探索空間を探索できる点である。
有効なIVを探索するためのプロンプトを構築する方法を示す。
我々は,多段階・ロールプレイング促進戦略が,経済エージェントの内在的意思決定プロセスのシミュレートや,実世界のシナリオを通して言語モデルをナビゲートする上で有効であると主張している。
我々は,経済学においてよく知られた3つの例,すなわち学校への回帰,供給と需要,およびピアエフェクトに適用する。
そして、我々の戦略を発見に拡張する
一 回帰及び差分差分における制御変数
(ii)回帰不連続設計における変数の実行。
関連論文リスト
- Farther the Shift, Sparser the Representation: Analyzing OOD Mechanisms in LLMs [100.02824137397464]
難易度が増大する入力に遭遇した場合,大規模言語モデルが内部表現をどのように適応するかを検討する。
タスクの難易度が増大するにつれて、LLMの最後の隠れ状態は実質的にスペーサーとなる。
この空間性-微分的関係は、様々なモデルや領域で観測可能である。
論文 参考訳(メタデータ) (2026-03-03T18:48:15Z) - IV Co-Scientist: Multi-Agent LLM Framework for Causal Instrumental Variable Discovery [61.15184885636171]
内因性変数と結果との相同性の存在下では、インストゥルメンタル変数(IVs)を用いて内因性変数の因果効果を分離する。
大規模言語モデル(LLM)がこの課題に有効かどうかを検討する。
本稿では,多エージェントシステムであるIV Co-Scientistを紹介する。
論文 参考訳(メタデータ) (2026-02-08T12:28:29Z) - FutureMind: Equipping Small Language Models with Strategic Thinking-Pattern Priors via Adaptive Knowledge Distillation [13.855534865501369]
小型言語モデル(SLM)は、その効率的で低レイテンシな推論のため、コスト感受性とリソース制限の設定に魅力的である。
本稿では,SLMに戦略的思考パターンを付加したモジュラー推論フレームワークであるFutureMindを提案する。
論文 参考訳(メタデータ) (2026-02-01T13:26:04Z) - Fast, Slow, and Tool-augmented Thinking for LLMs: A Review [57.16858582049339]
大規模言語モデル (LLM) は、様々な領域における推論において顕著な進歩を示している。
実世界のタスクにおける効果的な推論は、問題の要求に推論戦略を適用する必要がある。
2つの知識境界に沿ったLSM推論戦略の新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-17T07:20:32Z) - Confounded Causal Imitation Learning with Instrumental Variables [16.070797736247425]
実演からの模倣学習は、通常、測定されていない変数の相反する効果に悩まされる。
有効なIV識別とポリシー最適化のための2段階の模倣学習フレームワークを開発した。
論文 参考訳(メタデータ) (2025-07-23T08:23:34Z) - Revisiting LLM Value Probing Strategies: Are They Robust and Expressive? [81.49470136653665]
広範に利用されている3つの探索戦略における値表現の頑健さと表現性を評価する。
人口統計学的文脈は自由テキスト生成にはほとんど影響を与えず、モデルの値は値に基づく行動の好みと弱い相関しか示さない。
論文 参考訳(メタデータ) (2025-07-17T18:56:41Z) - Evolving Prompts In-Context: An Open-ended, Self-replicating Perspective [65.12150411762273]
ランダムなデモを不整合な "gibberish" にプルーニングすることで,多様なタスクにおけるパフォーマンスが著しく向上することを示す。
本稿では,低データレジームのみを用いてプルーニング戦略を自動的に検索する自己発見プロンプト最適化フレームワークPromptQuineを提案する。
論文 参考訳(メタデータ) (2025-06-22T07:53:07Z) - ReSearch: Learning to Reason with Search for LLMs via Reinforcement Learning [74.65632662894086]
本稿では,強化学習を通じてLLMをReason with Searchに学習するフレームワークであるReSearchを提案する。
提案手法では,検索操作を推論チェーンの不可欠な要素として扱う。
分析によると、ReSearchは自然にリフレクションや自己訂正のような高度な推論機能を引き出す。
論文 参考訳(メタデータ) (2025-03-25T09:00:58Z) - LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Prompting Strategies for Enabling Large Language Models to Infer Causation from Correlation [68.58373854950294]
我々は因果推論に焦点をあて,相関情報に基づく因果関係の確立という課題に対処する。
この問題に対して,元のタスクを固定的なサブクエストに分割するプロンプト戦略を導入する。
既存の因果ベンチマークであるCorr2Causeに対するアプローチを評価した。
論文 参考訳(メタデータ) (2024-12-18T15:32:27Z) - Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - Large Legislative Models: Towards Efficient AI Policymaking in Economic Simulations [4.153442346657272]
AIポリシー作成は、大規模にデータを処理する能力を通じて、人間のパフォーマンスを上回る可能性を秘めている。
既存のRLベースの手法では、サンプルの非効率性が示され、意思決定プロセスにニュアンス情報を柔軟に組み込むことができないことにより、さらに制限される。
本稿では,事前学習された大規模言語モデル(LLM)を,サンプル効率のよい政策立案者として利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-10T20:04:58Z) - Using LLMs for Explaining Sets of Counterfactual Examples to Final Users [0.0]
自動意思決定シナリオでは、因果推論手法は基礎となるデータ生成プロセスを分析することができる。
カウンターファクトな例では、最小限の要素が変更される仮説的なシナリオを探求する。
本稿では,アクションの自然言語説明を生成するために,反事実を用いた新しい多段階パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-27T15:13:06Z) - Multimodal Prompt Learning with Missing Modalities for Sentiment Analysis and Emotion Recognition [52.522244807811894]
本稿では,欠落したモダリティの問題に対処するために,即時学習を用いた新しいマルチモーダルトランスフォーマーフレームワークを提案する。
提案手法では,生成的プロンプト,欠信号プロンプト,欠信号プロンプトの3種類のプロンプトを導入している。
迅速な学習を通じて、トレーニング可能なパラメータの数を大幅に削減する。
論文 参考訳(メタデータ) (2024-07-07T13:55:56Z) - Rethinking ChatGPT's Success: Usability and Cognitive Behaviors Enabled by Auto-regressive LLMs' Prompting [5.344199202349884]
本研究では,2種類の大規模言語モデルと6種類のタスク固有チャネルにおけるモーダル性の構造を分析した。
本研究では,LLMにおける多様な認知行動の刺激について,自由形テキストと言語文脈の導入を通して検討する。
論文 参考訳(メタデータ) (2024-05-17T00:19:41Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Know Your Needs Better: Towards Structured Understanding of Marketer Demands with Analogical Reasoning Augmented LLMs [22.619903994607792]
我々は,非専門家のマーケターが,自然言語形式の要求のみを前提としたターゲットユーザを選択できる,ユーザターゲティングの新しい方法を探究する。
本稿では,2つのモジュールからなるALALLMを提案する。
論文 参考訳(メタデータ) (2024-01-09T02:25:23Z) - How FaR Are Large Language Models From Agents with Theory-of-Mind? [69.41586417697732]
大規模言語モデル(LLM)に対する新たな評価パラダイムを提案する。
T4Dは、他者の精神状態に関する推論を社会的シナリオにおける行動に結びつけるモデルを必要とする。
ゼロショットプロンプトフレームワークであるフォアシー・アンド・リフレクション(FaR)を導入し,LCMが今後の課題を予測できるように推論構造を提供する。
論文 参考訳(メタデータ) (2023-10-04T06:47:58Z) - Endogenous Macrodynamics in Algorithmic Recourse [52.87956177581998]
対実説明(CE)とアルゴリズム・リコース(AR)に関する既存の研究は、静的環境における個人に主に焦点を当ててきた。
既存の方法論の多くは、一般化されたフレームワークによってまとめて記述できることを示す。
次に、既存のフレームワークは、グループレベルでの言論の内在的ダイナミクスを研究する際にのみ明らかとなるような、隠された対外的関係のコストを考慮に入れていないと論じる。
論文 参考訳(メタデータ) (2023-08-16T07:36:58Z) - Instrumental Variables in Causal Inference and Machine Learning: A
Survey [26.678154268037595]
因果推論(英: Causal inference)とは、データに基づく変数間の因果関係に関する結論を引き出すために仮定を用いる過程である。
因果推論と機械学習の両分野における増大する文献は、計測変数(IV)の使用を提案する
本論文は、因果推論と機械学習の両方において、IV法とその応用を体系的かつ包括的に導入し、議論する最初の試みである。
論文 参考訳(メタデータ) (2022-12-12T08:59:04Z) - Deterministic and Discriminative Imitation (D2-Imitation): Revisiting
Adversarial Imitation for Sample Efficiency [61.03922379081648]
本稿では,敵対的トレーニングやmin-max最適化を必要としない非政治的サンプル効率の手法を提案する。
実験の結果, D2-Imitation はサンプル効率の向上に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T19:36:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。