論文の概要: Innovative Thinking, Infinite Humor: Humor Research of Large Language Models through Structured Thought Leaps
- arxiv url: http://arxiv.org/abs/2410.10370v1
- Date: Mon, 14 Oct 2024 10:50:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-29 22:04:40.536561
- Title: Innovative Thinking, Infinite Humor: Humor Research of Large Language Models through Structured Thought Leaps
- Title(参考訳): Innovative Thinking, Infinite Humor: Humor Research of Large Language Models through Structured Thought Leaps
- Authors: Han Wang, Yilin Zhao, Dian Li, Xiaohan Wang, Gang Liu, Xuguang Lan, Hui Wang,
- Abstract要約: ヒューモア(英: Humor)は、人間の言語における文化的に曖昧な側面であり、理解と生成の課題を提示する。
本稿では,ユーモアを創造する体系的な考え方を提案し,それに基づいてCreative Leap of Structured Thought frameを構築した。
- 参考スコア(独自算出の注目度): 34.35304020094762
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Humor is a culturally nuanced aspect of human language that presents challenges for understanding and generation, requiring participants to possess good creativity and strong associative thinking. Similar to reasoning tasks like solving math problems, humor generation requires continuous reflection and revision to foster creative thinking, rather than relying on a sudden flash of inspiration like Creative Leap-of-Thought (CLoT) paradigm. Although CLoT can realize the ability of remote association generation, this paradigm fails to generate humor content. Therefore, in this paper, we propose a systematic way of thinking about generating humor and based on it, we built Creative Leap of Structured Thought (CLoST) frame. First, a reward model is necessary achieve the purpose of being able to correct errors, since there is currently no expert model of humor and a usable rule to determine whether a piece of content is humorous. Judgement-oriented instructions are designed to improve the capability of a model, and we also propose an open-domain instruction evolutionary method to fully unleash the potential. Then, through reinforcement learning, the model learns to hone its rationales of the thought chain and refine the strategies it uses. Thus, it learns to recognize and correct its mistakes, and finally generate the most humorous and creative answer. These findings deepen our understanding of the creative capabilities of LLMs and provide ways to enhance LLMs' creative abilities for cross-domain innovative applications.
- Abstract(参考訳): ヒューモア(英: Humor)は、人間の言語における文化的に曖昧な側面であり、理解と生成の課題を提示し、参加者に優れた創造性と強い連想的思考を持つことを要求する。
数学の問題を解決するような推論タスクと同様に、ユーモア生成は創造的思考を促進するために、Creative Leap-of-Thought(CLoT)パラダイムのような突然のインスピレーションに頼るのではなく、継続的なリフレクションとリビジョンを必要とします。
CLoTは、リモートアソシエーション生成の能力を実現することができるが、このパラダイムはユーモアコンテンツの生成に失敗する。
そこで本稿では,ユーモアを創造する体系的な考え方を提案し,それに基づいてCreative Leap of Structured Thought (CLoST) フレームを構築した。
ひとつは、現在、ユーモアのエキスパートモデルがなく、コンテンツがユーモラスかどうかを判断するためのルールがあるため、報酬モデルがエラーを修正できる目的を達成する必要がある。
判断指向の命令はモデルの能力を向上させるために設計されており、その可能性を完全に解き放つためのオープンドメイン命令進化法も提案する。
そして、強化学習を通じて、モデルは思考連鎖の合理的性を高め、使用する戦略を洗練することを学ぶ。
そのため、間違いを認識して修正することを学び、最終的に最もユーモラスで創造的な答えを生み出します。
これらの知見は、LLMの創造的能力の理解を深め、ドメイン横断の革新的なアプリケーションのためのLLMの創造的能力を強化する方法を提供する。
関連論文リスト
- A Framework for Collaborating a Large Language Model Tool in Brainstorming for Triggering Creative Thoughts [2.709166684084394]
本研究は, 設計者に対して, ブレインストーミング時のアイデアの創造性向上のために, LLMツールで体系的に作業するための目標, プロンプト, 戦略を取り入れたGPSというフレームワークを提案する。
設計事例とケーススタディを通じてテストした本フレームワークは,創造性を刺激する効果と,設計プラクティスへのLCMツールのシームレスな統合を実証する。
論文 参考訳(メタデータ) (2024-10-10T13:39:27Z) - Initial Development and Evaluation of the Creative Artificial Intelligence through Recurring Developments and Determinations (CAIRDD) System [0.0]
大型言語モデル (LLMs) は創造性と感覚の出現のファクシミリを提供するが、実際は創造的でも知覚的でもない。
本稿では,概念注入・精錬の反復的プロセスを通じてLCM出力の創造性を向上する手法を提案する。
論文 参考訳(メタデータ) (2024-09-03T21:04:07Z) - Benchmarking Language Model Creativity: A Case Study on Code Generation [17.56712029335294]
創造性は少なくとも2つの重要な特徴から成り立っている: 啓発的思考(与えられた目標を達成するための目的性)と啓示的思考(新しい環境や制約への適応性) citeprunco 2003 クリティカル
2つの特徴を取り入れたLCM創造性を定量化する枠組みを提案する。
これは、(1)デニアル・プロンプティング(Denial Prompting)は、従来のソリューションに新たな制約を漸進的に課すことによって、LLMが与えられた問題に対してより創造的な解決策を導き出すよう促す。
論文 参考訳(メタデータ) (2024-07-12T05:55:22Z) - Divergent Creativity in Humans and Large Language Models [37.67363469600804]
最近の大規模言語モデルの能力の急上昇は、人間の能力に似た創造性レベルに近づいている、という主張につながっている。
我々は、創造科学の最近の進歩を活用して、最先端のLLMと10万人の実質的なデータセットの両方において、多様な創造性を詳細に分析するためのフレームワークを構築します。
論文 参考訳(メタデータ) (2024-05-13T22:37:52Z) - Enhancing Creativity in Large Language Models through Associative Thinking Strategies [9.09055730592338]
人間の創造性を高めるための連想的思考戦略が発見されている。
異なる概念を接続する大規模言語モデルが創造的なアウトプットを増大させるかどうかを検討する。
以上の結果から, 連想的思考技術を活用することで, vGPT-4の応答の独創性を大幅に向上させることができることが示唆された。
論文 参考訳(メタデータ) (2024-05-09T16:42:29Z) - Can AI Be as Creative as Humans? [84.43873277557852]
理論的には、AIは人間の創造者によって生成されたデータに適切に適合できるという条件の下で、人間と同じくらい創造的になれることを証明しています。
AIの創造性に関する議論は、十分な量のデータに適合する能力の問題に縮小されている。
論文 参考訳(メタデータ) (2024-01-03T08:49:12Z) - Let's Think Outside the Box: Exploring Leap-of-Thought in Large Language Models with Creative Humor Generation [96.0573187419543]
Chain-of-Thought(CoT)は、大きな言語モデルをステップバイステップで推論し、その論理的推論能力を動機付ける。
大規模言語モデル(LLM)におけるLeap-of-Thought(LoT)能力について検討する。
LoTは、強い結びつきと知識の飛躍を含む、シークエンシャルで創造的なパラダイムである。
論文 参考訳(メタデータ) (2023-12-05T02:41:57Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - ConceptLab: Creative Concept Generation using VLM-Guided Diffusion Prior
Constraints [56.824187892204314]
我々は創造的なテキスト・画像生成の課題を提示し、幅広いカテゴリの新しいメンバーを創り出そうとする。
本稿では, 先行拡散の出力空間上での最適化プロセスとして, 創造的生成問題を定式化できることを示す。
我々は、最適化問題に新たな制約を適応的に付加する質問応答型視覚言語モデル(VLM)を導入し、よりユニークな生成物を発見するようモデルに促す。
論文 参考訳(メタデータ) (2023-08-03T17:04:41Z) - Learning with AMIGo: Adversarially Motivated Intrinsic Goals [63.680207855344875]
AMIGoは、Adversarially Motivated Intrinsic Goalsを提案するゴール生成教師である。
提案手法は, 提案する目標の自然なカリキュラムを生成し, エージェントが究極的には, 手続き的に生成する課題を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。