論文の概要: Decoders Laugh as Loud as Encoders
- arxiv url: http://arxiv.org/abs/2509.04779v1
- Date: Fri, 05 Sep 2025 03:22:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.465652
- Title: Decoders Laugh as Loud as Encoders
- Title(参考訳): デコーダは、エンコーダのように大声で笑う
- Authors: Eli Borodach, Raj Dandekar, Rajat Dandekar, Sreedath Panat,
- Abstract要約: LLM(Large Language Models)は、科学コミュニティに重点を置いている。
これらのモデルが生成するものをどの程度理解しているかは、特にユーモアのようなニュアンスなテーマで明らかでない。
本稿では,F1スコア0.85の高精細復号器(GPT-4o)と,F1スコア0.86の高精細復号器(RoBERTa)について述べる。
- 参考スコア(独自算出の注目度): 4.500362688166346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: From the dawn of the computer, Allen Turing dreamed of a robot that could communicate using language as a human being. The recent advances in the field of Large Language Models (LLMs) shocked the scientific community when a single model can apply for various natural language processing (NLP) tasks, while the output results are sometimes even better than most human communication skills. Models such as GPT, Claude, Grok, etc. have left their mark on the scientific community. However, it is unclear how much these models understand what they produce, especially in a nuanced theme such as humor. The question of whether computers understand humor is still open (among the decoders, the latest to be checked was GPT-2). We addressed this issue in this paper; we have showed that a fine-tuned decoder (GPT-4o) performed (Mean F1-macro score of 0.85) as well as the best fine-tuned encoder (RoBERTa with a Mean of F1-score 0.86)
- Abstract(参考訳): コンピューターの夜明けから、アレン・チューリングは言語を人間として使うロボットを夢見ていた。
近年のLarge Language Models (LLMs) の進歩は、単一のモデルが様々な自然言語処理(NLP)タスクに適用できる一方で、出力結果が人間のコミュニケーションスキルよりもさらに優れている場合において、科学界に衝撃を与えた。
GPT、Claude、Grokなどのモデルは、科学コミュニティにその名を残している。
しかし、これらのモデルが生成するものをどの程度理解しているかは、特にユーモアのようなニュアンスなテーマで明らかでない。
コンピュータがユーモアを理解しているかどうかという問題は未解決のままである(デコーダとともに、確認すべき最新のものはGPT-2である)。
我々はこの問題に対処し、ファインチューニングデコーダ(GPT-4o)が実行され(平均F1-マクロスコア0.85)、最高のファインチューニング・エンコーダ(平均F1-スコア0.86)が実行されたことを示した。
関連論文リスト
- Testing chatbots on the creation of encoders for audio conditioned image generation [0.0]
現状の会話エージェントがCLIPテキストエンコーダを置き換える効果的なオーディオエンコーダを設計できるかどうかを検討する。
私たちは公開デモを作り、誰もがこのオーディオエンコーダを勉強して試せるようにしました。
論文 参考訳(メタデータ) (2025-09-09T18:57:10Z) - GR00T N1: An Open Foundation Model for Generalist Humanoid Robots [133.23509142762356]
汎用ロボットには多目的体と知的な心が必要だ。
近年のヒューマノイドロボットの進歩は、汎用的な自律性を構築するためのハードウェアプラットフォームとして大きな可能性を秘めている。
我々はヒューマノイドロボットのオープン基盤モデルであるGR00T N1を紹介する。
論文 参考訳(メタデータ) (2025-03-18T21:06:21Z) - Autoregressive Large Language Models are Computationally Universal [59.34397993748194]
変換器に基づく言語モデルの自己回帰復号化により,普遍計算が実現可能であることを示す。
まず、2027年の生産規則を持つラグシステムにより、普遍チューリングマシンをシミュレートできることを示す。
我々は、チャーチ・チューリングの論文により、拡張自己回帰(greedy)復号化によるgemini-1.5-pro-001が汎用コンピュータであると結論付けた。
論文 参考訳(メタデータ) (2024-10-04T06:05:17Z) - OWSM-CTC: An Open Encoder-Only Speech Foundation Model for Speech Recognition, Translation, and Language Identification [44.94458898538114]
Connectionist Temporal Classification (CTC)に基づく新しいエンコーダのみの音声基礎モデルOWSM-CTCを提案する。
多言語自動音声認識(ASR)、音声翻訳(ST)、言語識別(LID)のための180k時間の公開音声データをトレーニングする。
エンコーダデコーダOWSMと比較して、OWSM-CTCはASRとSTの24%の相対的改善を達成し、より堅牢で推論の3倍から4倍高速である。
論文 参考訳(メタデータ) (2024-02-20T02:04:38Z) - LLMs for Coding and Robotics Education [26.50437963474382]
従来のコーディングタスクと、ロボットコード生成のより困難なタスクの両方において、いくつかの主流の大規模言語モデルをテストする。
以上の結果から, GPT-4Vは全試験において他のモデルよりも優れているが, ブロック図の作成に苦慮していることがわかった。
論文 参考訳(メタデータ) (2024-02-09T00:58:57Z) - Surfer: Progressive Reasoning with World Models for Robotic Manipulation [51.26109827779267]
本稿では,新しいシンプルなロボット操作フレームワークであるSurferを紹介する。
Surferは、ロボット操作を視覚シーンの状態伝達として扱い、それをアクションとシーンという2つの部分に分割する。
これは世界モデルに基づいており、ロボット操作を視覚シーンの状態伝達として扱い、アクションとシーンの2つの部分に分けられる。
論文 参考訳(メタデータ) (2023-06-20T07:06:04Z) - Can Language Models Make Fun? A Case Study in Chinese Comical Crosstalk [12.349133310758562]
自然言語生成が人間のようにユーモアを発生させるかどうかを予備的に検証することを目的としている。
我々は,Scratch Seq2seq,微調整中規模PLM,大規模PLMなど,様々な世代のアプローチをベンチマークする。
結論として,大規模PLMを用いてユーモア生成を大幅に改善することができるが,まだ初期段階にある。
論文 参考訳(メタデータ) (2022-07-02T04:30:07Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - A Systematic Evaluation of Large Language Models of Code [88.34057460577957]
コードの大規模な言語モデル(LM)は、最近、コードを完成させ、自然言語記述からコードを合成する大きな可能性を示しています。
現在の最先端のコードLMは公開されておらず、モデルやデータ設計の決定について多くの疑問が残されている。
Codexはオープンソースではありませんが、既存のオープンソースモデルはいくつかのプログラミング言語でクローズな結果が得られることが分かりました。
GPT-2アーキテクチャに基づいた2.7Bパラメータを持つ新しいモデルPolyCoderをリリースし、12のプログラミング言語を1台のマシンで249GBのコードでトレーニングした。
論文 参考訳(メタデータ) (2022-02-26T15:53:55Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - NLP-CIC at SemEval-2020 Task 9: Analysing sentiment in code-switching
language using a simple deep-learning classifier [63.137661897716555]
コードスイッチングは、2つ以上の言語が同じメッセージで使用される現象である。
標準的な畳み込みニューラルネットワークモデルを用いて、スペイン語と英語の混在するツイートの感情を予測する。
論文 参考訳(メタデータ) (2020-09-07T19:57:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。