論文の概要: Innovative Thinking, Infinite Humor: Humor Research of Large Language Models through Structured Thought Leaps
- arxiv url: http://arxiv.org/abs/2410.10370v2
- Date: Fri, 11 Apr 2025 01:52:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-22 01:17:13.803685
- Title: Innovative Thinking, Infinite Humor: Humor Research of Large Language Models through Structured Thought Leaps
- Title(参考訳): Innovative Thinking, Infinite Humor: Humor Research of Large Language Models through Structured Thought Leaps
- Authors: Han Wang, Yilin Zhao, Dian Li, Xiaohan Wang, Gang Liu, Xuguang Lan, Hui Wang,
- Abstract要約: ヒューモアは人間の言葉のニュアンスな側面であり、その理解と生成の課題を提示している。
創造的思考における知識グラフの広さのため、マルチホップ推論は困難である。
ユーモア推論タスクであるLoLについて,より堅牢なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 34.35304020094762
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Humor is previously regarded as a gift exclusive to humans for the following reasons. Humor is a culturally nuanced aspect of human language, presenting challenges for its understanding and generation. Humor generation necessitates a multi-hop reasoning process, with each hop founded on proper rationales. Although many studies, such as those related to GPT-o1, focus on logical reasoning with reflection and correction, they still fall short in humor generation. Due to the sparsity of the knowledge graph in creative thinking, it is arduous to achieve multi-hop reasoning. Consequently, in this paper, we propose a more robust framework for addressing the humor reasoning task, named LoL. LoL aims to inject external information to mitigate the sparsity of the knowledge graph, thereby enabling multi-hop reasoning. In the first stage of LoL, we put forward an automatic instruction-evolution method to incorporate the deeper and broader thinking processes underlying humor. Judgment-oriented instructions are devised to enhance the model's judgment capability, dynamically supplementing and updating the sparse knowledge graph. Subsequently, through reinforcement learning, the reasoning logic for each online-generated response is extracted using GPT-4o. In this process, external knowledge is re-introduced to aid the model in logical reasoning and the learning of human preferences. Finally, experimental results indicate that the combination of these two processes can enhance both the model's judgment ability and its generative capacity. These findings deepen our comprehension of the creative capabilities of large language models (LLMs) and offer approaches to boost LLMs' creative abilities for cross-domain innovative applications.
- Abstract(参考訳): 従来、風は以下の理由から人間専用の贈り物とみなされていた。
ヒューモアは人間の言語における文化的にニュアンスのある側面であり、その理解と生成の課題を提示している。
ユーモア生成は複数のホップ推論プロセスを必要とし、各ホップは適切な理性に基づいて構築される。
GPT-o1のような多くの研究は、リフレクションと修正を伴う論理的推論に焦点を当てているが、それでもユーモアの発生には不足している。
創造的思考における知識グラフの広さのため、マルチホップ推論は困難である。
そこで本稿では,LoLというユーモア推論タスクに対処するための,より堅牢なフレームワークを提案する。
LoLの目的は、知識グラフの空間性を軽減するために外部情報を注入することで、マルチホップ推論を可能にすることである。
LoLの第一段階では、ユーモアの根底にあるより深い、より広い思考プロセスを組み込むための自動命令進化手法を提唱した。
判断指向の指示は、モデルの判断能力を高めるために考案され、スパース知識グラフを動的に補足し更新する。
その後、強化学習により、各オンライン生成応答の推論ロジックをGPT-4oを用いて抽出する。
このプロセスでは、論理的推論と人間の嗜好の学習においてモデルを支援するために、外部知識が再導入される。
最後に、実験結果から、これらの2つのプロセスを組み合わせることで、モデルの判断能力と生成能力の両方を高めることが示されている。
これらの知見は、大規模言語モデル(LLM)の創造的能力の理解を深め、ドメイン横断の革新的なアプリケーションにおいてLLMの創造的能力を高めるためのアプローチを提供する。
関連論文リスト
- RARE: Retrieval-Augmented Reasoning Modeling [41.24577920467858]
ドメイン固有の知性は、問題解決のための専門的な知識と洗練された推論を要求する。
本稿では,推論最適化から知識記憶を分離する新しいパラダイムであるRetrieval-Augmented Reasoning Modeling (RARE)を提案する。
RAREはドメイン知識を検索可能なソースに外部化し、トレーニング中にドメイン固有の推論パターンを内部化する。
論文 参考訳(メタデータ) (2025-03-30T16:49:44Z) - Back Attention: Understanding and Enhancing Multi-Hop Reasoning in Large Language Models [51.53835083483751]
我々は,「ヴォルフガング・アマデウス・モーツァルトの母の配偶者」のようなプロンプトにおいて,大規模言語モデルが潜在マルチホップ推論をどのように行うかを検討する。
故障は相関属性抽出の段階に起因することが多く、矛盾するロジットが予測精度を低下させる。
注意計算において,下位層が異なる位置から高層隠れ状態を利用することができる機構であるバックアテンションを提案する。
論文 参考訳(メタデータ) (2025-02-15T15:36:42Z) - TinyThinker: Distilling Reasoning through Coarse-to-Fine Knowledge Internalization with Self-Reflection [2.379928855453728]
大規模言語モデルは、様々なタスクにまたがる印象的な推論能力を示す。
これらの機能を、生成された推論データを通じてより小さなモデルに蒸留する試みは、推論プロセスの表面的な模倣につながる可能性がある。
2つの新しいアプローチを紹介するフレームワークであるTinyThinkerを提案する。
論文 参考訳(メタデータ) (2024-12-11T02:05:42Z) - Towards Interpreting Language Models: A Case Study in Multi-Hop Reasoning [0.0]
言語モデル(LM)は、一貫してマルチホップ推論を行うのに苦労する。
本稿では,LMアテンションヘッド上のターゲットメモリ注入によるマルチホップ推論障害をピンポイントし,修正する手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T16:30:26Z) - A Framework for Collaborating a Large Language Model Tool in Brainstorming for Triggering Creative Thoughts [2.709166684084394]
本研究は, 設計者に対して, ブレインストーミング時のアイデアの創造性向上のために, LLMツールで体系的に作業するための目標, プロンプト, 戦略を取り入れたGPSというフレームワークを提案する。
設計事例とケーススタディを通じてテストした本フレームワークは,創造性を刺激する効果と,設計プラクティスへのLCMツールのシームレスな統合を実証する。
論文 参考訳(メタデータ) (2024-10-10T13:39:27Z) - Initial Development and Evaluation of the Creative Artificial Intelligence through Recurring Developments and Determinations (CAIRDD) System [0.0]
大型言語モデル (LLMs) は創造性と感覚の出現のファクシミリを提供するが、実際は創造的でも知覚的でもない。
本稿では,概念注入・精錬の反復的プロセスを通じてLCM出力の創造性を向上する手法を提案する。
論文 参考訳(メタデータ) (2024-09-03T21:04:07Z) - Benchmarking Language Model Creativity: A Case Study on Code Generation [17.56712029335294]
創造性は少なくとも2つの重要な特徴から成り立っている: 啓発的思考(与えられた目標を達成するための目的性)と啓示的思考(新しい環境や制約への適応性) citeprunco 2003 クリティカル
2つの特徴を取り入れたLCM創造性を定量化する枠組みを提案する。
これは、(1)デニアル・プロンプティング(Denial Prompting)は、従来のソリューションに新たな制約を漸進的に課すことによって、LLMが与えられた問題に対してより創造的な解決策を導き出すよう促す。
論文 参考訳(メタデータ) (2024-07-12T05:55:22Z) - Divergent Creativity in Humans and Large Language Models [37.67363469600804]
最近の大規模言語モデルの能力の急上昇は、人間の能力に似た創造性レベルに近づいている、という主張につながっている。
我々は、創造科学の最近の進歩を活用して、最先端のLLMと10万人の実質的なデータセットの両方において、多様な創造性を詳細に分析するためのフレームワークを構築します。
論文 参考訳(メタデータ) (2024-05-13T22:37:52Z) - Enhancing Creativity in Large Language Models through Associative Thinking Strategies [9.09055730592338]
人間の創造性を高めるための連想的思考戦略が発見されている。
異なる概念を接続する大規模言語モデルが創造的なアウトプットを増大させるかどうかを検討する。
以上の結果から, 連想的思考技術を活用することで, vGPT-4の応答の独創性を大幅に向上させることができることが示唆された。
論文 参考訳(メタデータ) (2024-05-09T16:42:29Z) - Exploring Chinese Humor Generation: A Study on Two-Part Allegorical Sayings [0.76146285961466]
本稿では,中国語のユーモアを理解・生成するための最先端言語モデルの有用性について検討する。
中規模言語モデルの微調整と大規模学習の促進という,2つの優れたトレーニング手法を採用している。
人間の注釈による結果は、これらのモデルがユーモラスな偏見を生み出す可能性を示し、証明が実用的で効果的な方法であることが証明された。
論文 参考訳(メタデータ) (2024-03-16T02:58:57Z) - Can AI Be as Creative as Humans? [84.43873277557852]
理論的には、AIは人間の創造者によって生成されたデータに適切に適合できるという条件の下で、人間と同じくらい創造的になれることを証明しています。
AIの創造性に関する議論は、十分な量のデータに適合する能力の問題に縮小されている。
論文 参考訳(メタデータ) (2024-01-03T08:49:12Z) - Let's Think Outside the Box: Exploring Leap-of-Thought in Large Language Models with Creative Humor Generation [96.0573187419543]
Chain-of-Thought(CoT)は、大きな言語モデルをステップバイステップで推論し、その論理的推論能力を動機付ける。
大規模言語モデル(LLM)におけるLeap-of-Thought(LoT)能力について検討する。
LoTは、強い結びつきと知識の飛躍を含む、シークエンシャルで創造的なパラダイムである。
論文 参考訳(メタデータ) (2023-12-05T02:41:57Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - ConceptLab: Creative Concept Generation using VLM-Guided Diffusion Prior
Constraints [56.824187892204314]
我々は創造的なテキスト・画像生成の課題を提示し、幅広いカテゴリの新しいメンバーを創り出そうとする。
本稿では, 先行拡散の出力空間上での最適化プロセスとして, 創造的生成問題を定式化できることを示す。
我々は、最適化問題に新たな制約を適応的に付加する質問応答型視覚言語モデル(VLM)を導入し、よりユニークな生成物を発見するようモデルに促す。
論文 参考訳(メタデータ) (2023-08-03T17:04:41Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Language Generation with Multi-Hop Reasoning on Commonsense Knowledge
Graph [124.45799297285083]
知識グラフの構造的情報と意味的情報の両方を活用することで、コモンセンスを意識したテキスト生成が促進されると主張している。
本稿では,外部コモンセンス知識グラフから抽出したマルチリレーショナルパスに基づいて,動的マルチホップ推論を用いた事前学習モデルを実現するマルチホップ推論フロー(GRF)の生成を提案する。
論文 参考訳(メタデータ) (2020-09-24T13:55:32Z) - Learning with AMIGo: Adversarially Motivated Intrinsic Goals [63.680207855344875]
AMIGoは、Adversarially Motivated Intrinsic Goalsを提案するゴール生成教師である。
提案手法は, 提案する目標の自然なカリキュラムを生成し, エージェントが究極的には, 手続き的に生成する課題を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。