論文の概要: Generating Diverse Hypotheses for Inductive Reasoning
- arxiv url: http://arxiv.org/abs/2412.13422v1
- Date: Wed, 18 Dec 2024 01:38:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:49:44.569854
- Title: Generating Diverse Hypotheses for Inductive Reasoning
- Title(参考訳): 帰納的推論のための多変量仮説の生成
- Authors: Kang-il Lee, Hyukhun Koh, Dongryeol Lee, Seunghyun Yoon, Minsung Kim, Kyomin Jung,
- Abstract要約: そこで我々は,Mixture of Concepts (MoC) と呼ばれる,人間の帰納的推論にインスパイアされた新しいアプローチを提案する。
MoCは、標準IIDサンプリングや他のアプローチと比較して、大幅な性能向上を示した。
- 参考スコア(独自算出の注目度): 16.971901613802167
- License:
- Abstract: Inductive reasoning - the process of inferring general rules from a small number of observations - is a fundamental aspect of human intelligence. Recent works suggest that large language models (LLMs) can engage in inductive reasoning by sampling multiple hypotheses about the rules and selecting the one that best explains the observations. However, due to the IID sampling, semantically redundant hypotheses are frequently generated, leading to significant wastage of compute. In this paper, we 1) demonstrate that increasing the temperature to enhance the diversity is limited due to text degeneration issue, and 2) propose a novel method to improve the diversity while maintaining text quality. We first analyze the effect of increasing the temperature parameter, which is regarded as the LLM's diversity control, on IID hypotheses. Our analysis shows that as temperature rises, diversity and accuracy of hypotheses increase up to a certain point, but this trend saturates due to text degeneration. To generate hypotheses that are more semantically diverse and of higher quality, we propose a novel approach inspired by human inductive reasoning, which we call Mixture of Concepts (MoC). When applied to several inductive reasoning benchmarks, MoC demonstrated significant performance improvements compared to standard IID sampling and other approaches.
- Abstract(参考訳): インダクティブ推論(インダクティブ推論、インダクティブ推論、インダクティブ推論、インダクティブ推論)は、人間の知性の基本的側面である。
最近の研究は、大言語モデル(LLM)が規則に関する複数の仮説をサンプリングし、観察を最もよく説明するものを選択することによって、帰納的推論を行えることを示唆している。
しかし、IIDサンプリングにより、意味的に冗長な仮説が頻繁に生成され、計算が大幅に無駄になる。
本稿では,
1) 多様性を高めるための温度上昇は, テキスト・デジェネレーションの問題により制限されていることを実証し,
2)テキストの品質を維持しつつ多様性を向上させる新しい手法を提案する。
まず, LLMの多様性制御とされる温度パラメータの増大がIID仮説に及ぼす影響を解析した。
我々の分析では、温度が上昇するにつれて仮説の多様性と精度は一定まで上昇するが、この傾向はテキストの劣化によって飽和する。
より意味的に多様性があり,より高い品質の仮説を生成するために,我々はMixture of Concepts (MoC) と呼ばれる,人間の帰納的推論に触発された新しいアプローチを提案する。
いくつかの帰納的推論ベンチマークに適用すると、MoCは標準IIDサンプリングや他のアプローチと比較して大幅に性能が向上した。
関連論文リスト
- REAL Sampling: Boosting Factuality and Diversity of Open-Ended Generation via Asymptotic Entropy [93.8400683020273]
大規模言語モデル(LLM)の復号法は通常、事実性の確保と多様性の維持のトレードオフに苦慮する。
核サンプリングにおける事実性および多様性を向上させる復号法であるREALサンプリングを提案する。
論文 参考訳(メタデータ) (2024-06-11T21:44:49Z) - Hypothesis Testing Prompting Improves Deductive Reasoning in Large Language Models [19.879616265315637]
textitHypothesis Testing Promptingは、中間推論ステップ中に結論の仮定、後方推論、事実検証を追加する。
実験によると、仮説テストは効果を著しく改善するだけでなく、より合理的で標準化された推論プロセスを生成する。
論文 参考訳(メタデータ) (2024-05-09T08:46:17Z) - Scaling Data Diversity for Fine-Tuning Language Models in Human Alignment [84.32768080422349]
人間の好みの調整は、大きな言語モデルが誤解を招くか有害なコンテンツを生成するのを防ぐ。
本研究では, 微調整後のLLMの最終性能と線形相関を示唆し, 即時多様性の新たな定式化を提案する。
論文 参考訳(メタデータ) (2024-03-17T07:08:55Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Large Language Models for Automated Open-domain Scientific Hypotheses Discovery [50.40483334131271]
本研究は,社会科学の学術的仮説発見のための最初のデータセットを提案する。
従来のデータセットとは異なり、新しいデータセットには、(1)オープンドメインデータ(RAW Webコーパス)を観察として使用すること、(2)人間性にさらに新しい仮説を提案することが必要である。
パフォーマンス向上のための3つのフィードバック機構を含む,タスクのためのマルチモジュールフレームワークが開発されている。
論文 参考訳(メタデータ) (2023-09-06T05:19:41Z) - KL-Divergence Guided Temperature Sampling [5.726259957909055]
温度が上がると、予測は多様になるが、幻覚にも弱い。
幻覚を緩和するための一般的なアプローチは、ソース/グラウンドのドキュメントを提供することである。
本稿では,デコードステップよりも温度が一定であることの制約を緩和すると共に,その発生源との関係に応じて動的温度を誘導する機構を提案する。
論文 参考訳(メタデータ) (2023-06-02T06:11:26Z) - Pluralistic Aging Diffusion Autoencoder [63.50599304294062]
顔の老化は、複数のプラプシブルな老化パターンが与えられた入力に対応する可能性があるため、不適切な問題である。
本稿では,CLIP駆動型多言語時効拡散オートエンコーダを提案する。
論文 参考訳(メタデータ) (2023-03-20T13:20:14Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Semantic Diversity in Dialogue with Natural Language Inference [19.74618235525502]
本稿では,対話生成における多様性向上に2つの重要な貢献をする。
まず、自然言語推論(NLI)を用いて、会話に対するモデル応答の集合のセマンティック多様性を測定する新しいメトリクスを提案する。
第2に,多様性閾値生成と呼ばれる新世代の手法を用いて,サンプル化された応答集合のセマンティック多様性を反復的に改善する方法を実証する。
論文 参考訳(メタデータ) (2022-05-03T13:56:32Z) - Case-Based Abductive Natural Language Inference [4.726777092009554]
事例ベース帰納的自然言語推論(CB-ANLI)
事例ベース帰納的自然言語推論(CB-ANLI)
論文 参考訳(メタデータ) (2020-09-30T09:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。