論文の概要: Causality for Natural Language Processing
- arxiv url: http://arxiv.org/abs/2504.14530v1
- Date: Sun, 20 Apr 2025 08:11:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 00:00:01.218771
- Title: Causality for Natural Language Processing
- Title(参考訳): 自然言語処理の因果性
- Authors: Zhijing Jin,
- Abstract要約: 因果推論は人間の知性の基礎であり、人工システムにとって重要な能力である。
この論文は、大きな言語モデルにおける因果推論と理解の様々な次元に展開する。
- 参考スコア(独自算出の注目度): 17.681875945732042
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Causal reasoning is a cornerstone of human intelligence and a critical capability for artificial systems aiming to achieve advanced understanding and decision-making. This thesis delves into various dimensions of causal reasoning and understanding in large language models (LLMs). It encompasses a series of studies that explore the causal inference skills of LLMs, the mechanisms behind their performance, and the implications of causal and anticausal learning for natural language processing (NLP) tasks. Additionally, it investigates the application of causal reasoning in text-based computational social science, specifically focusing on political decision-making and the evaluation of scientific impact through citations. Through novel datasets, benchmark tasks, and methodological frameworks, this work identifies key challenges and opportunities to improve the causal capabilities of LLMs, providing a comprehensive foundation for future research in this evolving field.
- Abstract(参考訳): 因果推論は人間の知性の基礎であり、高度な理解と意思決定を達成することを目的とした人工システムにとって重要な能力である。
この論文は、大言語モデル(LLM)における因果推論と理解の様々な次元に展開する。
LLMの因果推論スキル、その性能の背後にあるメカニズム、および自然言語処理(NLP)タスクに対する因果的および反因果的学習の影響を探求する一連の研究を含んでいる。
さらに、テキストベースの計算社会科学における因果推論の適用について検討し、特に政治的意思決定と引用による科学的影響の評価に焦点を当てた。
新たなデータセット、ベンチマークタスク、方法論フレームワークを通じて、この研究はLLMの因果的能力を改善するための重要な課題と機会を特定し、この進化する分野における将来の研究の総合的な基盤を提供する。
関連論文リスト
- A Call for New Recipes to Enhance Spatial Reasoning in MLLMs [85.67171333213301]
MLLM(Multimodal Large Language Models)は、一般的な視覚言語タスクにおいて印象的な性能を示す。
近年の研究では、空間的推論能力の限界が明らかにされている。
この空間的推論の欠如は、MLLMが物理的世界と効果的に相互作用する能力を著しく制限する。
論文 参考訳(メタデータ) (2025-04-21T11:48:39Z) - A Survey on Enhancing Causal Reasoning Ability of Large Language Models [15.602788561902038]
大規模言語モデル(LLM)は、最近、言語タスク以降で顕著なパフォーマンスを示している。
LLMは、医療や経済分析などの堅牢な因果推論能力を必要とするタスクを扱う上で、依然として課題に直面している。
本稿では,LLMの因果推論能力の強化に関する文献を体系的にレビューする。
論文 参考訳(メタデータ) (2025-03-12T12:20:31Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Advancing Reasoning in Large Language Models: Promising Methods and Approaches [0.0]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて著しく成功している。
複雑な推論スパンニング論理推論、数学的問題解決、コモンセンス推論、そして多段階推論を実行する能力は、人間の期待に届かない。
本調査は, LLMにおける推論向上技術に関する総合的なレビューを提供する。
論文 参考訳(メタデータ) (2025-02-05T23:31:39Z) - LLM Reasoning Engine: Specialized Training for Enhanced Mathematical Reasoning [7.512199306943756]
数学的推論タスクにおける大規模言語モデルの能力を高めるための新しい手法を提案する。
このギャップを埋める必要性に感銘を受け、私たちのアプローチには質問パラフレーズ戦略が組み込まれています。
モデルの学習プロセスを導くために 専門的な訓練目的が 使われています。
論文 参考訳(メタデータ) (2024-12-28T17:48:33Z) - Decoding Large-Language Models: A Systematic Overview of Socio-Technical Impacts, Constraints, and Emerging Questions [1.1970409518725493]
この記事では、倫理的考察とともに、社会に肯定的な影響を与える可能性のある適用領域を強調します。
これには、開発に関する責任ある考慮、アルゴリズムの改善、倫理的課題、社会的影響が含まれる。
論文 参考訳(メタデータ) (2024-09-25T14:36:30Z) - Causal Inference with Large Language Model: A Survey [5.651037052334014]
因果推論は医学や経済学といった様々な分野において重要な課題となっている。
自然言語処理(NLP)の最近の進歩は、従来の因果推論タスクに有望な機会をもたらした。
論文 参考訳(メタデータ) (2024-09-15T18:43:11Z) - Diagnostic Reasoning in Natural Language: Computational Model and Application [68.47402386668846]
言語基底タスク(NL-DAR)の文脈における診断誘導推論(DAR)について検討する。
パール構造因果モデルに基づくNL-DARの新しいモデリングフレームワークを提案する。
得られたデータセットを用いて,NL-DARにおける人間の意思決定過程を解析する。
論文 参考訳(メタデータ) (2024-09-09T06:55:37Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。