論文の概要: Self-reflecting Large Language Models: A Hegelian Dialectical Approach
- arxiv url: http://arxiv.org/abs/2501.14917v6
- Date: Mon, 23 Jun 2025 18:59:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 15:36:08.102048
- Title: Self-reflecting Large Language Models: A Hegelian Dialectical Approach
- Title(参考訳): 自己表現型大規模言語モデル:ヘーゲル弁証的アプローチ
- Authors: Sara Abdali, Can Goksen, Michael Solodko, Saeed Amizadeh, Julie E. Maybee, Kazuhito Koishida,
- Abstract要約: 哲学的なレンズによるNLPの探索は、古典的な哲学の学派と計算方法の橋渡しとして、研究者の目に近づきつつある。
本稿では,LLMの自己回帰を可能にするために,ヘーゲル方言に触発された哲学的枠組みを紹介する。
我々の実験は、数学的および記号的推論の大幅な改善とともに、アイデアの有望な結果を示す。
- 参考スコア(独自算出の注目度): 12.23637960401675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Investigating NLP through a philosophical lens has recently caught researchers' eyes, as it bridges computational methods with classical schools of philosophy. This paper introduces a philosophical framework inspired by the Hegelian Dialectic to enable LLMs' self-reflection, utilizing a self-dialectical approach to emulate internal critiques and synthesize new scientific ideas (spanning domains such as mathematics, physics, and more). Additionally, we explore the effect of generation temperature in LLMs by introducing a dynamic annealing approach, which encourages creativity in the early stages and gradually focuses on refinement and nuance, as well as a constant-temperature strategy. Furthermore, we implement a Multi-Agent Majority Voting (MAMV) strategy to assess the validity and novelty of the generated ideas, which proves useful in the absence of domain experts. We also evaluate the effectiveness of our method in generating novel scientific ideas and improving LLMs' reasoning capabilities. Our experiments demonstrate promising results in ideation, along with significant improvements in mathematical and symbolic reasoning.
- Abstract(参考訳): 哲学的なレンズを通してNLPを調べることは、古典的な哲学の学派と計算方法の橋渡しとして、研究者の目に近づきつつある。
本稿では, 内部批判をエミュレートし, 新たな科学的概念(数学, 物理学など)を合成する自己弁証的アプローチを用いて, LLMの自己回帰を可能にするために, ヘーゲル弁証法に触発された哲学的枠組みを紹介する。
また, LLMにおける生成温度の影響を動的アニール法により検討し, 早期の創造性を促進し, 改良とニュアンスに着目し, 常温戦略にも着目する。
さらに,提案手法の妥当性と新規性を評価するために,マルチエージェント・マジョリティ投票(MAMV)戦略を実装した。
また,新しい科学的アイデアを創出し,LLMの推論能力を向上させるための手法の有効性についても検討した。
我々の実験は、数学的および記号的推論の大幅な改善とともに、アイデアの有望な結果を示す。
関連論文リスト
- Spark: A System for Scientifically Creative Idea Generation [17.327096015873334]
大規模言語モデル(LLM)は、科学における新しい研究のアイデアを生み出す有望な能力を示している。
我々は、LLMを用いた検索強化アイデア生成と、OpenReviewから600Kの科学的レビューに基づいて訓練された審査員モデルとを結合したSparkというアイデア生成システムを提案する。
論文 参考訳(メタデータ) (2025-04-25T20:33:57Z) - Probing and Inducing Combinational Creativity in Vision-Language Models [52.76981145923602]
VLM(Vision-Language Models)の最近の進歩は、それらのアウトプットが組合せの創造性を反映しているかという議論を引き起こしている。
本稿では,創造的プロセスを3つのレベルに分解するIEIフレームワークを提案する。
このフレームワークを検証するために、IEIフレームワークに従って注釈付けされた666人のアーティストによる視覚マッシュアップの高品質データセットであるCreativeMashupをキュレートする。
論文 参考訳(メタデータ) (2025-04-17T17:38:18Z) - A Causality-aware Paradigm for Evaluating Creativity of Multimodal Large Language Models [100.16387798660833]
オオギリゲーム(オオギリゲーム)は、ユーモアと連想的思考を必要とする創造的な仕事である。
LoTbenchはインタラクティブで因果性を考慮した評価フレームワークである。
その結果、ほとんどのLLMは制約された創造性を示すが、LLMと人間の間の性能格差は克服できないことがわかった。
論文 参考訳(メタデータ) (2025-01-25T09:11:15Z) - Learning to Generate Research Idea with Dynamic Control [21.30777644522451]
大規模言語モデル (LLM) は仮説や研究のアイデアを生み出すことを約束している。
SFT(Supervised Fine-Tuning)とRL(Reinforcement Learning)を組み合わせた2段階のアプローチによる新しいフレームワークを提案する。
本フレームワークは, 新規性, 実現可能性, 有効性の間のトレードオフを動的にナビゲートすることで, 高品質な成果を達成し, 研究アイデアに対するバランスのとれたアプローチを提供する。
論文 参考訳(メタデータ) (2024-12-19T08:28:18Z) - Nova: An Iterative Planning and Search Approach to Enhance Novelty and Diversity of LLM Generated Ideas [30.3756058589173]
我々は,大規模言語モデル(LLM)の創造的可能性を高めるために,拡張計画と探索手法を導入する。
我々の枠組みは、特に新規性と多様性において、生成したアイデアの質を大幅に高める。
本手法は,スイスのトーナメント評価において,170枚のシード論文に基づいて,少なくとも2.5倍以上の上位のアイデアを生成する。
論文 参考訳(メタデータ) (2024-10-18T08:04:36Z) - Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers [90.26363107905344]
大型言語モデル(LLM)は、科学的な発見を加速する可能性についての楽観主義を喚起した。
LLMシステムは、新しい専門家レベルのアイデアを生み出すための第一歩を踏み出すことができるという評価はない。
論文 参考訳(メタデータ) (2024-09-06T08:25:03Z) - Benchmarking Language Model Creativity: A Case Study on Code Generation [39.546827184857754]
本研究では,LLMの創造性を定量化するフレームワークを提案する。
生成した創造的応答における収束的思考と発散的思考の両方を定量化する計量であるNEOGAUGEを定義する。
我々はCodeforcesの問題に関する提案されたフレームワークをテストする。これは、タスクをコーディングするための自然なデータセットと、先行する人間のソリューションのコレクションの両方に役立ちます。
論文 参考訳(メタデータ) (2024-07-12T05:55:22Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。