論文の概要: Self-reflecting Large Language Models: A Hegelian Dialectical Approach
- arxiv url: http://arxiv.org/abs/2501.14917v3
- Date: Tue, 04 Feb 2025 07:12:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:55:13.319351
- Title: Self-reflecting Large Language Models: A Hegelian Dialectical Approach
- Title(参考訳): 自己表現型大規模言語モデル:ヘーゲル弁証的アプローチ
- Authors: Sara Abdali, Can Goksen, Saeed Amizadeh, Kazuhito Koishida,
- Abstract要約: 哲学的なレンズによるNLPの探索は、計算手法と古典的な哲学の学派を結びつけることで、研究者の目を引くようになった。
本稿では, LLMの自己回帰に対するヘーゲル弁証法に触発された哲学的アプローチを紹介し, 自己弁証的アプローチを用いて内的批判をエミュレートし, 矛盾点を解消して新たなアイデアを合成する。
我々の実験は、新しいアイデアを生み出すことを約束し、将来の研究の足場を提供する。
- 参考スコア(独自算出の注目度): 13.910371970437708
- License:
- Abstract: Investigating NLP through a philosophical lens has recently caught researcher's eyes as it connects computational methods with classical schools of philosophy. This paper introduces a philosophical approach inspired by the Hegelian Dialectic for LLMs' self-reflection, utilizing a self-dialectical approach to emulate internal critiques and then synthesize new ideas by resolving the contradicting points. Moreover, this paper investigates the effect of LLMs' temperature for generation by establishing a dynamic annealing approach, which promotes the creativity in the early stages and gradually refines it by focusing on the nuances, as well as a fixed temperature strategy for generation. Our proposed approach is examined to determine its ability to generate novel ideas from an initial proposition. Additionally, a Multi Agent Majority Voting (MAMV) strategy is leveraged to assess the validity and novelty of the generated ideas, which proves beneficial in the absence of domain experts. Our experiments show promise in generating new ideas and provide a stepping stone for future research.
- Abstract(参考訳): 哲学的なレンズによるNLPの探索は、計算手法と古典的な哲学の学派を結びつけることで、研究者の目を引くようになった。
本稿では, LLMの自己回帰に対するヘーゲル弁証法に触発された哲学的アプローチを紹介し, 自己弁証的アプローチを用いて内的批判をエミュレートし, 矛盾点を解消して新たなアイデアを合成する。
さらに, 動的アニール法を確立し, 初期における創造性を促進し, ニュアンスに着目して徐々に改良し, 生成のための固定温度戦略を確立させることにより, LLMの温度が生成に与える影響について検討した。
提案手法は,最初の提案から新しいアイデアを創出する能力を決定するためのものである。
さらに、Multi Agent Majority Voting(MAMV)戦略を利用して、生成されたアイデアの有効性と新規性を評価し、ドメインの専門家がいない場合に有益であることを示す。
我々の実験は、新しいアイデアを生み出すことを約束し、将来の研究の足場を提供する。
関連論文リスト
- Nova: An Iterative Planning and Search Approach to Enhance Novelty and Diversity of LLM Generated Ideas [30.3756058589173]
我々は,大規模言語モデル(LLM)の創造的可能性を高めるために,拡張計画と探索手法を導入する。
我々の枠組みは、特に新規性と多様性において、生成したアイデアの質を大幅に高める。
本手法は,スイスのトーナメント評価において,170枚のシード論文に基づいて,少なくとも2.5倍以上の上位のアイデアを生成する。
論文 参考訳(メタデータ) (2024-10-18T08:04:36Z) - Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers [90.26363107905344]
大型言語モデル(LLM)は、科学的な発見を加速する可能性についての楽観主義を喚起した。
LLMシステムは、新しい専門家レベルのアイデアを生み出すための第一歩を踏み出すことができるという評価はない。
論文 参考訳(メタデータ) (2024-09-06T08:25:03Z) - LLM Discussion: Enhancing the Creativity of Large Language Models via Discussion Framework and Role-Play [43.55248812883912]
大規模言語モデル(LLM)は自然言語処理において例外的な習熟度を示してきたが、しばしばオープンエンドの質問に対する創造的で独創的な応答を生成できない。
LLM議論は,アイデア交換の活発化と多様化を促進する3段階の議論フレームワークである。
提案手法の有効性を, 代替利用テスト, 類似性テスト, インスタンステスト, 科学的創造性テストを用いて評価した。
論文 参考訳(メタデータ) (2024-05-10T10:19:14Z) - Metacognitive Retrieval-Augmented Large Language Models [43.57020180706832]
本稿ではメタRAG(MetaRAG)について紹介する。
これを統合することで、MetaRAGはモデルが応答戦略を監視し、評価し、計画することを可能にする。
経験的評価は、MetaRAGが既存の手法よりも著しく優れていることを示している。
論文 参考訳(メタデータ) (2024-02-18T15:41:31Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - Operationalising Representation in Natural Language Processing [0.0]
哲学的にインフォームドされた表現の概念を運用するプロジェクトは、科学の哲学者とNLPの実践者の両方にとって興味深いものであるべきである。
これは哲学者に表現の性質に関する主張のための新しいテスト場を与え、NLP研究者が探索実験に関する大規模な文献を整理するのに役立つ。
論文 参考訳(メタデータ) (2023-06-14T01:34:16Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。