論文の概要: Random Forest-of-Thoughts: Uncertainty-aware Reasoning for Computational Social Science
- arxiv url: http://arxiv.org/abs/2502.18729v1
- Date: Wed, 26 Feb 2025 00:52:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:58:04.105769
- Title: Random Forest-of-Thoughts: Uncertainty-aware Reasoning for Computational Social Science
- Title(参考訳): ランダム・フォレスト・オブ・ワット:計算社会科学における不確かさを意識した推論
- Authors: Xiaohua Wu, Xiaohui Tao, Wenjie Wu, Yuefeng Li, Lin Li,
- Abstract要約: 思考のランダムフォレスト (RFoT) と呼ばれる新しい言語モデルプロセッシング手法を提案する。
RFoTは、多様な思考空間を生成し、思考の森を構築するためのサブ思想をランダムに選択することで、LLMが意図的な意思決定を行うことを可能にする。
実験の結果,RFoTは,非自明な推論を必要とする2つの新しい社会調査分析問題において,言語モデルの能力を大幅に向上させることがわかった。
- 参考スコア(独自算出の注目度): 9.870701840926923
- License:
- Abstract: Social surveys in computational social science are well-designed by elaborate domain theories that can effectively reflect the interviewee's deep thoughts without concealing their true feelings. The candidate questionnaire options highly depend on the interviewee's previous answer, which results in the complexity of social survey analysis, the time, and the expertise required. The ability of large language models (LLMs) to perform complex reasoning is well-enhanced by prompting learning such as Chain-of-thought (CoT) but still confined to left-to-right decision-making processes or limited paths during inference. This means they can fall short in problems that require exploration and uncertainty searching. In response, a novel large language model prompting method, called Random Forest of Thoughts (RFoT), is proposed for generating uncertainty reasoning to fit the area of computational social science. The RFoT allows LLMs to perform deliberate decision-making by generating diverse thought space and randomly selecting the sub-thoughts to build the forest of thoughts. It can extend the exploration and prediction of overall performance, benefiting from the extensive research space of response. The method is applied to optimize computational social science analysis on two datasets covering a spectrum of social survey analysis problems. Our experiments show that RFoT significantly enhances language models' abilities on two novel social survey analysis problems requiring non-trivial reasoning.
- Abstract(参考訳): 計算社会科学における社会調査は、インタビュアーの深い思考を、真の感情を隠さずに効果的に反映できる精巧なドメイン理論によってよく設計されている。
質問票の選択肢は, 質問人の以前の回答に大きく依存しており, 社会的調査分析の複雑さ, 時間, 専門知識が生じる。
大規模言語モデル(LLM)が複雑な推論を行う能力は、Chain-of-Thought(CoT)のような学習を促すことで十分に向上するが、推論中は左から右への意思決定プロセスや限られた経路に限られる。
これは、探索と不確実性探索を必要とする問題に陥る可能性があることを意味する。
これに対し, 思考のランダムフォレスト (RFoT) と呼ばれる新しい大規模言語モデル推進手法を提案し, 計算社会科学の領域に適合する不確実性推論を生成する。
RFoTは、多様な思考空間を生成し、思考の森を構築するためのサブ思想をランダムに選択することで、LLMが意図的な意思決定を行うことを可能にする。
全体的なパフォーマンスの探索と予測を拡張でき、広範な研究領域のレスポンスの恩恵を受けることができる。
本手法は,社会調査分析問題の範囲をカバーする2つのデータセットの計算社会科学解析を最適化するために適用された。
実験の結果,RFoTは,非自明な推論を必要とする2つの新しい社会調査分析問題において,言語モデルの能力を大幅に向上させることがわかった。
関連論文リスト
- Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models [76.6028674686018]
エージェントの精神状態を追跡するための推論時間推論アルゴリズムである思考トレースを導入する。
提案アルゴリズムは,ベイズ理論をモデルとした。
本研究は,様々なベンチマークにおける思考トレーシングを評価し,大幅な性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-17T15:08:50Z) - Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs [86.79757571440082]
OpenAIのo1のような大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な能力を示している。
我々は、o1-like LLMがしばしば異なる理性的思考を切り替える、という現象を特定する。
本稿では,思考間の早期移行を回避できる思考切替ペナルティTIPを用いた復号戦略を提案する。
論文 参考訳(メタデータ) (2025-01-30T18:58:18Z) - The Computational Complexity of Circuit Discovery for Inner Interpretability [0.30723404270319693]
我々は古典的およびパラメータ化された計算複雑性理論を用いて回路発見を研究する。
私たちの発見は、難しい複雑さの風景を明らかにします。
このフレームワークは、解釈可能性クエリの範囲と限界を理解するのに役立ちます。
論文 参考訳(メタデータ) (2024-10-10T15:22:48Z) - Crafting Interpretable Embeddings by Asking LLMs Questions [89.49960984640363]
大規模言語モデル(LLM)は、自然言語処理タスクの増大に対して、テキスト埋め込みを急速に改善した。
質問応答埋め込み (QA-Emb) を導入し, 各特徴がLLMに対して質問された質問に対する回答を表す。
我々はQA-Embを用いて、言語刺激に対するfMRIボクセル応答を予測するための解釈可能なモデルを柔軟に生成する。
論文 参考訳(メタデータ) (2024-05-26T22:30:29Z) - Puzzle Solving using Reasoning of Large Language Models: A Survey [1.9939549451457024]
本稿では,Large Language Models (LLMs) のパズル解法における能力について検討する。
以上の結果から,LLM能力と人為的推論の相違が明らかとなった。
この調査は、LLMのパズル解決能力を向上させるために、新しい戦略とよりリッチなデータセットの必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-17T14:19:38Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Machine-assisted quantitizing designs: augmenting humanities and social sciences with artificial intelligence [0.0]
大規模言語モデル(LLM)は、人文科学や社会科学におけるデータ分析をスケールアップする前例のない機会であることが示された。
設計原則を定量化し、変換し、言語学から特徴分析し、人間の専門知識と機械のスケーラビリティを透過的に統合する混合手法を構築します。
このアプローチは、1ダース以上のLDM支援ケーススタディで議論され、9つの多様な言語、複数の規律、タスクをカバーしている。
論文 参考訳(メタデータ) (2023-09-24T14:21:50Z) - ConvFinQA: Exploring the Chain of Numerical Reasoning in Conversational
Finance Question Answering [70.6359636116848]
本稿では,対話型質問応答における数値推論の連鎖を研究するために,新しい大規模データセットConvFinQAを提案する。
我々のデータセットは、現実世界の会話において、長距離で複雑な数値推論パスをモデル化する上で大きな課題となる。
論文 参考訳(メタデータ) (2022-10-07T23:48:50Z) - AR-LSAT: Investigating Analytical Reasoning of Text [57.1542673852013]
テキストの分析的推論の課題を研究し、1991年から2016年までのロースクール入学試験からの質問からなる新しいデータセットを紹介します。
我々は,この課題をうまくこなすために必要な知識理解と推論能力を分析する。
論文 参考訳(メタデータ) (2021-04-14T02:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。