論文の概要: Feasibility with Language Models for Open-World Compositional Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2505.11181v1
- Date: Fri, 16 May 2025 12:37:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.968096
- Title: Feasibility with Language Models for Open-World Compositional Zero-Shot Learning
- Title(参考訳): オープンワールド構成ゼロショット学習における言語モデルの適用可能性
- Authors: Jae Myung Kim, Stephan Alaniz, Cordelia Schmid, Zeynep Akata,
- Abstract要約: オープンワールド構成ゼロショット学習では、全ての状態オブジェクトの組み合わせは目に見えないクラスと見なされる。
本研究は、外部補助知識を用いて状態-対象の組み合わせの実現可能性を決定することに焦点を当てる。
- 参考スコア(独自算出の注目度): 96.6544564242316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans can easily tell if an attribute (also called state) is realistic, i.e., feasible, for an object, e.g. fire can be hot, but it cannot be wet. In Open-World Compositional Zero-Shot Learning, when all possible state-object combinations are considered as unseen classes, zero-shot predictors tend to perform poorly. Our work focuses on using external auxiliary knowledge to determine the feasibility of state-object combinations. Our Feasibility with Language Model (FLM) is a simple and effective approach that leverages Large Language Models (LLMs) to better comprehend the semantic relationships between states and objects. FLM involves querying an LLM about the feasibility of a given pair and retrieving the output logit for the positive answer. To mitigate potential misguidance of the LLM given that many of the state-object compositions are rare or completely infeasible, we observe that the in-context learning ability of LLMs is essential. We present an extensive study identifying Vicuna and ChatGPT as best performing, and we demonstrate that our FLM consistently improves OW-CZSL performance across all three benchmarks.
- Abstract(参考訳): 人間は、属性(状態とも呼ばれる)が現実的であるか、すなわち、オブジェクトに対して実現可能であるかを簡単に判断することができる。
オープンワールド構成ゼロショット学習では、全ての状態オブジェクトの組み合わせが目に見えないクラスと見なされる場合、ゼロショット予測器は性能が悪くなる傾向にある。
本研究は、外部補助知識を用いて状態-対象の組み合わせの実現可能性を決定することに焦点を当てる。
我々の言語モデル(FLM)は、大規模言語モデル(LLM)を利用して状態とオブジェクト間の意味的関係をよりよく理解するためのシンプルで効果的なアプローチである。
FLMは、あるペアの実現可能性についてLLMに問い合わせ、正の答えのために出力ロジットを取得する。
LLMの潜在的な誤認を緩和するためには、LLMの文脈内学習能力が不可欠であることを観察する。
本稿では,Vicuna と ChatGPT を最高の性能として評価し,FLM が OW-CZSL 性能を3つのベンチマークで一貫的に向上することを示す。
関連論文リスト
- Evaluating Linguistic Capabilities of Multimodal LLMs in the Lens of Few-Shot Learning [15.919493497867567]
本研究では,VALSEベンチマークを用いたマルチモーダル大規模言語モデル(MLLM)の性能評価を目的とした。
我々は,モデルサイズや事前学習データセットの異なる最先端MLLMの包括的評価を行った。
論文 参考訳(メタデータ) (2024-07-17T11:26:47Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Linguistic Intelligence in Large Language Models for Telecommunications [5.06945923921948]
自然言語処理(NLP)分野において,Large Language Models (LLMs) が大きな進歩を遂げている。
本研究は,電気通信分野におけるLLMの知識と理解能力を評価することを目的とする。
評価の結果,ゼロショットLLMは現状の細調整モデルに匹敵する性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-02-24T14:01:07Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Simple is Better and Large is Not Enough: Towards Ensembling of
Foundational Language Models [8.902348901281334]
基礎言語モデル(FLM)は、高度な自然言語処理(NLP)の研究である。
現在の研究者は、文脈化された言語表現、分類、生成を可能にするため、より大きなFLMを開発している。
より大きなFLMを開発することは大きな利点であるが、幻覚や予測の不確実性に関する負債でもある。
論文 参考訳(メタデータ) (2023-08-23T17:40:35Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。