論文の概要: Self-reflecting Large Language Models: A Hegelian Dialectical Approach
- arxiv url: http://arxiv.org/abs/2501.14917v3
- Date: Tue, 04 Feb 2025 07:12:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:55:13.319351
- Title: Self-reflecting Large Language Models: A Hegelian Dialectical Approach
- Title(参考訳): 自己表現型大規模言語モデル:ヘーゲル弁証的アプローチ
- Authors: Sara Abdali, Can Goksen, Saeed Amizadeh, Kazuhito Koishida,
- Abstract要約: 哲学的なレンズによるNLPの探索は、計算手法と古典的な哲学の学派を結びつけることで、研究者の目を引くようになった。
本稿では, LLMの自己回帰に対するヘーゲル弁証法に触発された哲学的アプローチを紹介し, 自己弁証的アプローチを用いて内的批判をエミュレートし, 矛盾点を解消して新たなアイデアを合成する。
我々の実験は、新しいアイデアを生み出すことを約束し、将来の研究の足場を提供する。
- 参考スコア(独自算出の注目度): 13.910371970437708
- License:
- Abstract: Investigating NLP through a philosophical lens has recently caught researcher's eyes as it connects computational methods with classical schools of philosophy. This paper introduces a philosophical approach inspired by the Hegelian Dialectic for LLMs' self-reflection, utilizing a self-dialectical approach to emulate internal critiques and then synthesize new ideas by resolving the contradicting points. Moreover, this paper investigates the effect of LLMs' temperature for generation by establishing a dynamic annealing approach, which promotes the creativity in the early stages and gradually refines it by focusing on the nuances, as well as a fixed temperature strategy for generation. Our proposed approach is examined to determine its ability to generate novel ideas from an initial proposition. Additionally, a Multi Agent Majority Voting (MAMV) strategy is leveraged to assess the validity and novelty of the generated ideas, which proves beneficial in the absence of domain experts. Our experiments show promise in generating new ideas and provide a stepping stone for future research.
- Abstract(参考訳): 哲学的なレンズによるNLPの探索は、計算手法と古典的な哲学の学派を結びつけることで、研究者の目を引くようになった。
本稿では, LLMの自己回帰に対するヘーゲル弁証法に触発された哲学的アプローチを紹介し, 自己弁証的アプローチを用いて内的批判をエミュレートし, 矛盾点を解消して新たなアイデアを合成する。
さらに, 動的アニール法を確立し, 初期における創造性を促進し, ニュアンスに着目して徐々に改良し, 生成のための固定温度戦略を確立させることにより, LLMの温度が生成に与える影響について検討した。
提案手法は,最初の提案から新しいアイデアを創出する能力を決定するためのものである。
さらに、Multi Agent Majority Voting(MAMV)戦略を利用して、生成されたアイデアの有効性と新規性を評価し、ドメインの専門家がいない場合に有益であることを示す。
我々の実験は、新しいアイデアを生み出すことを約束し、将来の研究の足場を提供する。
関連論文リスト
- A Causality-aware Paradigm for Evaluating Creativity of Multimodal Large Language Models [100.16387798660833]
オオギリゲーム(オオギリゲーム)は、ユーモアと連想的思考を必要とする創造的な仕事である。
LoTbenchはインタラクティブで因果性を考慮した評価フレームワークである。
その結果、ほとんどのLLMは制約された創造性を示すが、LLMと人間の間の性能格差は克服できないことがわかった。
論文 参考訳(メタデータ) (2025-01-25T09:11:15Z) - Learning to Generate Research Idea with Dynamic Control [21.30777644522451]
大規模言語モデル (LLM) は仮説や研究のアイデアを生み出すことを約束している。
SFT(Supervised Fine-Tuning)とRL(Reinforcement Learning)を組み合わせた2段階のアプローチによる新しいフレームワークを提案する。
本フレームワークは, 新規性, 実現可能性, 有効性の間のトレードオフを動的にナビゲートすることで, 高品質な成果を達成し, 研究アイデアに対するバランスのとれたアプローチを提供する。
論文 参考訳(メタデータ) (2024-12-19T08:28:18Z) - Nova: An Iterative Planning and Search Approach to Enhance Novelty and Diversity of LLM Generated Ideas [30.3756058589173]
我々は,大規模言語モデル(LLM)の創造的可能性を高めるために,拡張計画と探索手法を導入する。
我々の枠組みは、特に新規性と多様性において、生成したアイデアの質を大幅に高める。
本手法は,スイスのトーナメント評価において,170枚のシード論文に基づいて,少なくとも2.5倍以上の上位のアイデアを生成する。
論文 参考訳(メタデータ) (2024-10-18T08:04:36Z) - Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers [90.26363107905344]
大型言語モデル(LLM)は、科学的な発見を加速する可能性についての楽観主義を喚起した。
LLMシステムは、新しい専門家レベルのアイデアを生み出すための第一歩を踏み出すことができるという評価はない。
論文 参考訳(メタデータ) (2024-09-06T08:25:03Z) - Benchmarking Language Model Creativity: A Case Study on Code Generation [39.546827184857754]
本研究では,LLMの創造性を定量化するフレームワークを提案する。
生成した創造的応答における収束的思考と発散的思考の両方を定量化する計量であるNEOGAUGEを定義する。
我々はCodeforcesの問題に関する提案されたフレームワークをテストする。これは、タスクをコーディングするための自然なデータセットと、先行する人間のソリューションのコレクションの両方に役立ちます。
論文 参考訳(メタデータ) (2024-07-12T05:55:22Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - Operationalising Representation in Natural Language Processing [0.0]
哲学的にインフォームドされた表現の概念を運用するプロジェクトは、科学の哲学者とNLPの実践者の両方にとって興味深いものであるべきである。
これは哲学者に表現の性質に関する主張のための新しいテスト場を与え、NLP研究者が探索実験に関する大規模な文献を整理するのに役立つ。
論文 参考訳(メタデータ) (2023-06-14T01:34:16Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。