論文の概要: Self-reflecting Large Language Models: A Hegelian Dialectical Approach
- arxiv url: http://arxiv.org/abs/2501.14917v5
- Date: Tue, 13 May 2025 17:06:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 16:45:08.79275
- Title: Self-reflecting Large Language Models: A Hegelian Dialectical Approach
- Title(参考訳): 自己表現型大規模言語モデル:ヘーゲル弁証的アプローチ
- Authors: Sara Abdali, Can Goksen, Saeed Amizadeh, Julie E. Maybee, Kazuhito Koishida,
- Abstract要約: 哲学的なレンズによるNLPの探索は、計算手法と古典的な哲学の学派を結びつけることで、研究者の目を引くようになった。
本稿では,LLMのテクスト自己回帰に対するヘーゲル弁証法に触発された哲学的アプローチを紹介する。
提案手法は, 新たなアイデアの創出と, 問題解決におけるLCMの推論能力の向上に有効であることを示す。
- 参考スコア(独自算出の注目度): 12.965861424095833
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Investigating NLP through a philosophical lens has recently caught researcher's eyes as it connects computational methods with classical schools of philosophy. This paper introduces a philosophical approach inspired by the \textit{Hegelian Dialectic} for LLMs' \textit{self-reflection}, utilizing a self-dialectical approach to emulate internal critiques and then synthesize new ideas by resolving the opposing points of view. Moreover, this paper investigates the effect of LLMs' temperature for generation by establishing a dynamic annealing approach, which promotes the creativity in the early stages and gradually refines it by focusing on the nuances, as well as a fixed-temperature strategy for generation. We assess the effectiveness of our proposed method in generating novel ideas and in improving the reasoning abilities of LLMs during problem-solving. Moreover, we implement a Multi-Agent Majority Voting (MAMV) strategy to assess the validity and novelty of the generated ideas, which proves useful in the absence of domain experts. Our experiments demonstrate promising results in generating ideas and enhancing problem-solving performance.
- Abstract(参考訳): 哲学的なレンズによるNLPの探索は、計算手法と古典的な哲学の学派を結びつけることで、研究者の目を引くようになった。
本稿では, LLMs の \textit{Hegelian Dialectic} に触発された哲学的アプローチを紹介する。
さらに, 動的アニール法を確立し, 初期における創造性を促進し, ニュアンスに着目して徐々に改良し, 生成のための固定温度戦略を確立させることにより, LLMの温度が生成に与える影響について検討した。
提案手法は, 新たなアイデアの創出と, 問題解決におけるLCMの推論能力の向上に有効であることを示す。
さらに,提案手法の妥当性と新規性を評価するために,マルチエージェント・マジョリティ投票(MAMV)戦略を実装した。
提案実験は,アイデアの創出と問題解決性能の向上に有望な成果を示した。
関連論文リスト
- Spark: A System for Scientifically Creative Idea Generation [17.327096015873334]
大規模言語モデル(LLM)は、科学における新しい研究のアイデアを生み出す有望な能力を示している。
我々は、LLMを用いた検索強化アイデア生成と、OpenReviewから600Kの科学的レビューに基づいて訓練された審査員モデルとを結合したSparkというアイデア生成システムを提案する。
論文 参考訳(メタデータ) (2025-04-25T20:33:57Z) - Probing and Inducing Combinational Creativity in Vision-Language Models [52.76981145923602]
VLM(Vision-Language Models)の最近の進歩は、それらのアウトプットが組合せの創造性を反映しているかという議論を引き起こしている。
本稿では,創造的プロセスを3つのレベルに分解するIEIフレームワークを提案する。
このフレームワークを検証するために、IEIフレームワークに従って注釈付けされた666人のアーティストによる視覚マッシュアップの高品質データセットであるCreativeMashupをキュレートする。
論文 参考訳(メタデータ) (2025-04-17T17:38:18Z) - A Causality-aware Paradigm for Evaluating Creativity of Multimodal Large Language Models [100.16387798660833]
オオギリゲーム(オオギリゲーム)は、ユーモアと連想的思考を必要とする創造的な仕事である。
LoTbenchはインタラクティブで因果性を考慮した評価フレームワークである。
その結果、ほとんどのLLMは制約された創造性を示すが、LLMと人間の間の性能格差は克服できないことがわかった。
論文 参考訳(メタデータ) (2025-01-25T09:11:15Z) - Learning to Generate Research Idea with Dynamic Control [21.30777644522451]
大規模言語モデル (LLM) は仮説や研究のアイデアを生み出すことを約束している。
SFT(Supervised Fine-Tuning)とRL(Reinforcement Learning)を組み合わせた2段階のアプローチによる新しいフレームワークを提案する。
本フレームワークは, 新規性, 実現可能性, 有効性の間のトレードオフを動的にナビゲートすることで, 高品質な成果を達成し, 研究アイデアに対するバランスのとれたアプローチを提供する。
論文 参考訳(メタデータ) (2024-12-19T08:28:18Z) - Nova: An Iterative Planning and Search Approach to Enhance Novelty and Diversity of LLM Generated Ideas [30.3756058589173]
我々は,大規模言語モデル(LLM)の創造的可能性を高めるために,拡張計画と探索手法を導入する。
我々の枠組みは、特に新規性と多様性において、生成したアイデアの質を大幅に高める。
本手法は,スイスのトーナメント評価において,170枚のシード論文に基づいて,少なくとも2.5倍以上の上位のアイデアを生成する。
論文 参考訳(メタデータ) (2024-10-18T08:04:36Z) - Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers [90.26363107905344]
大型言語モデル(LLM)は、科学的な発見を加速する可能性についての楽観主義を喚起した。
LLMシステムは、新しい専門家レベルのアイデアを生み出すための第一歩を踏み出すことができるという評価はない。
論文 参考訳(メタデータ) (2024-09-06T08:25:03Z) - Benchmarking Language Model Creativity: A Case Study on Code Generation [39.546827184857754]
本研究では,LLMの創造性を定量化するフレームワークを提案する。
生成した創造的応答における収束的思考と発散的思考の両方を定量化する計量であるNEOGAUGEを定義する。
我々はCodeforcesの問題に関する提案されたフレームワークをテストする。これは、タスクをコーディングするための自然なデータセットと、先行する人間のソリューションのコレクションの両方に役立ちます。
論文 参考訳(メタデータ) (2024-07-12T05:55:22Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。