論文の概要: Neologism Learning for Controllability and Self-Verbalization
- arxiv url: http://arxiv.org/abs/2510.08506v1
- Date: Thu, 09 Oct 2025 17:41:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.258873
- Title: Neologism Learning for Controllability and Self-Verbalization
- Title(参考訳): 制御性と自己言語化のためのネオロジズム学習
- Authors: John Hewitt, Oyvind Tafjord, Robert Geirhos, Been Kim,
- Abstract要約: モデルをよりよく理解し、制御するために、新しい単語を導入するというアイデアを探求する。
本手法では、新しい単語を埋め込み、その概念を示す例で訓練することにより、新しい単語を導入する。
新しい単語を追加することで、フラットリー、誤った回答、テキストの長さ、AxBenchのより複雑な概念などの概念を制御できることを示す。
- 参考スコア(独自算出の注目度): 23.932433693726182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans invent new words when there is a rising demand for a new useful concept (e.g., doomscrolling). We explore and validate a similar idea in our communication with LLMs: introducing new words to better understand and control the models, expanding on the recently introduced neologism learning. This method introduces a new word by adding a new word embedding and training with examples that exhibit the concept with no other changes in model parameters. We show that adding a new word allows for control of concepts such as flattery, incorrect answers, text length, as well as more complex concepts in AxBench. We discover that neologisms can also further our understanding of the model via self-verbalization: models can describe what each new word means to them in natural language, like explaining that a word that represents a concept of incorrect answers means ``a lack of complete, coherent, or meaningful answers...'' To validate self-verbalizations, we introduce plug-in evaluation: we insert the verbalization into the context of a model and measure whether it controls the target concept. In some self-verbalizations, we find machine-only synonyms: words that seem unrelated to humans but cause similar behavior in machines. Finally, we show how neologism learning can jointly learn multiple concepts in multiple words.
- Abstract(参考訳): 人間は新しい有用な概念(例えばDoomscrolling)の需要が高まっているときに新しい言葉を発明する。
モデルをよりよく理解し制御するための新しい単語を導入し、最近導入されたネオロジズム学習を拡張します。
本手法では, モデルパラメータに他の変更を加えることなく, 新たな単語を埋め込み, トレーニングすることで, 新たな単語を導入する。
新しい単語を追加することで、フラットリー、誤った回答、テキストの長さ、AxBenchのより複雑な概念などの概念を制御できることを示す。
モデルは、それぞれの新しい単語が自然言語で何を意味しているかを記述できる。例えば、不正確な答えの概念を表す単語は、''a lack of complete, coherent, or meaning answer''を意味すると説明すれば、自己言語を検証するために、プラグイン評価を導入する:モデルのコンテキストに動詞を挿入し、それがターゲット概念を制御するかどうかを測定する。
いくつかの自己言語化では、機械のみの同義語を見つける:人間とは無関係に見えるが、機械内でも同様な振る舞いを引き起こす言葉。
最後に、ネオロジズム学習が複数の単語で複数の概念を共同で学習する方法を示す。
関連論文リスト
- Rapid Word Learning Through Meta In-Context Learning [20.370397855670124]
In-context learNing Of Words(Minnow)のためのメタトレーニング手法を提案する。
この方法は、いくつかの文脈内例から単語の使用例を生成するために言語モデルを訓練する。
Minnowでスクラッチからトレーニングするモデルは、人間のスケールの子供指向言語で、強力な数発の単語学習を可能にしている。
論文 参考訳(メタデータ) (2025-02-20T18:11:38Z) - CoLLEGe: Concept Embedding Generation for Large Language Models [12.812113254812028]
CoLLEGeは、新しい概念のための柔軟な埋め込みを生成することができるメタ学習フレームワークである。
我々は,現実のシナリオに挑戦する上で,新しい概念学習をテストするための一連のタスクを設計する。
論文 参考訳(メタデータ) (2024-03-22T17:26:05Z) - Continuously Learning New Words in Automatic Speech Recognition [56.972851337263755]
音声認識のための自己教師付き連続学習手法を提案する。
文献からのメモリ拡張型ASRモデルを用いて、スライドから新しい単語を復号する。
提案手法により,新たな単語の出現頻度が高くなると,新たな単語のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-01-09T10:39:17Z) - Word sense extension [8.939269057094661]
本稿では,新しい文脈に向けて,単語が新たな感覚を創出することを可能にする,単語知覚拡張(WSE)のパラダイムを提案する。
本研究では,多文語型を異なる感覚を示す2つの擬似トークンに分割することで,単語拡張をシミュレートするフレームワークを開発する。
本フレームワークは,様々な種類の単語知覚拡張をサポートするために,言語モデル埋め込み空間を変換する学習手法と,連鎖の認知モデルを組み合わせる。
論文 参考訳(メタデータ) (2023-06-09T00:54:21Z) - DreamArtist++: Controllable One-Shot Text-to-Image Generation via Positive-Negative Adapter [63.622879199281705]
いくつかの例に基づく画像生成手法が提案されており、例えば、いくつかの入力参照の健全な特徴を吸収して新しい概念を生成する。
本研究では,DreamArtistというシンプルなフレームワークを提案する。このフレームワークは,事前学習した拡散モデルに対して,新しい正負の学習戦略を採用する。
我々は,画像類似性(忠実度)と多様性,生成制御性,スタイルのクローニングから,幅広い実験を行い,提案手法の評価を行った。
論文 参考訳(メタデータ) (2022-11-21T10:37:56Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。