論文の概要: Decoders Laugh as Loud as Encoders
- arxiv url: http://arxiv.org/abs/2509.04779v1
- Date: Fri, 05 Sep 2025 03:22:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.465652
- Title: Decoders Laugh as Loud as Encoders
- Title(参考訳): デコーダは、エンコーダのように大声で笑う
- Authors: Eli Borodach, Raj Dandekar, Rajat Dandekar, Sreedath Panat,
- Abstract要約: LLM(Large Language Models)は、科学コミュニティに重点を置いている。
これらのモデルが生成するものをどの程度理解しているかは、特にユーモアのようなニュアンスなテーマで明らかでない。
本稿では,F1スコア0.85の高精細復号器(GPT-4o)と,F1スコア0.86の高精細復号器(RoBERTa)について述べる。
- 参考スコア(独自算出の注目度): 4.500362688166346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: From the dawn of the computer, Allen Turing dreamed of a robot that could communicate using language as a human being. The recent advances in the field of Large Language Models (LLMs) shocked the scientific community when a single model can apply for various natural language processing (NLP) tasks, while the output results are sometimes even better than most human communication skills. Models such as GPT, Claude, Grok, etc. have left their mark on the scientific community. However, it is unclear how much these models understand what they produce, especially in a nuanced theme such as humor. The question of whether computers understand humor is still open (among the decoders, the latest to be checked was GPT-2). We addressed this issue in this paper; we have showed that a fine-tuned decoder (GPT-4o) performed (Mean F1-macro score of 0.85) as well as the best fine-tuned encoder (RoBERTa with a Mean of F1-score 0.86)
- Abstract(参考訳): コンピューターの夜明けから、アレン・チューリングは言語を人間として使うロボットを夢見ていた。
近年のLarge Language Models (LLMs) の進歩は、単一のモデルが様々な自然言語処理(NLP)タスクに適用できる一方で、出力結果が人間のコミュニケーションスキルよりもさらに優れている場合において、科学界に衝撃を与えた。
GPT、Claude、Grokなどのモデルは、科学コミュニティにその名を残している。
しかし、これらのモデルが生成するものをどの程度理解しているかは、特にユーモアのようなニュアンスなテーマで明らかでない。
コンピュータがユーモアを理解しているかどうかという問題は未解決のままである(デコーダとともに、確認すべき最新のものはGPT-2である)。
我々はこの問題に対処し、ファインチューニングデコーダ(GPT-4o)が実行され(平均F1-マクロスコア0.85)、最高のファインチューニング・エンコーダ(平均F1-スコア0.86)が実行されたことを示した。
関連論文リスト
- GR00T N1: An Open Foundation Model for Generalist Humanoid Robots [133.23509142762356]
汎用ロボットには多目的体と知的な心が必要だ。
近年のヒューマノイドロボットの進歩は、汎用的な自律性を構築するためのハードウェアプラットフォームとして大きな可能性を秘めている。
我々はヒューマノイドロボットのオープン基盤モデルであるGR00T N1を紹介する。
論文 参考訳(メタデータ) (2025-03-18T21:06:21Z) - OWSM-CTC: An Open Encoder-Only Speech Foundation Model for Speech Recognition, Translation, and Language Identification [44.94458898538114]
Connectionist Temporal Classification (CTC)に基づく新しいエンコーダのみの音声基礎モデルOWSM-CTCを提案する。
多言語自動音声認識(ASR)、音声翻訳(ST)、言語識別(LID)のための180k時間の公開音声データをトレーニングする。
エンコーダデコーダOWSMと比較して、OWSM-CTCはASRとSTの24%の相対的改善を達成し、より堅牢で推論の3倍から4倍高速である。
論文 参考訳(メタデータ) (2024-02-20T02:04:38Z) - Surfer: Progressive Reasoning with World Models for Robotic Manipulation [51.26109827779267]
本稿では,新しいシンプルなロボット操作フレームワークであるSurferを紹介する。
Surferは、ロボット操作を視覚シーンの状態伝達として扱い、それをアクションとシーンという2つの部分に分割する。
これは世界モデルに基づいており、ロボット操作を視覚シーンの状態伝達として扱い、アクションとシーンの2つの部分に分けられる。
論文 参考訳(メタデータ) (2023-06-20T07:06:04Z) - Can Language Models Make Fun? A Case Study in Chinese Comical Crosstalk [12.349133310758562]
自然言語生成が人間のようにユーモアを発生させるかどうかを予備的に検証することを目的としている。
我々は,Scratch Seq2seq,微調整中規模PLM,大規模PLMなど,様々な世代のアプローチをベンチマークする。
結論として,大規模PLMを用いてユーモア生成を大幅に改善することができるが,まだ初期段階にある。
論文 参考訳(メタデータ) (2022-07-02T04:30:07Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。