論文の概要: On the Self Shuffle Language
- arxiv url: http://arxiv.org/abs/2202.07988v1
- Date: Wed, 16 Feb 2022 10:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 15:13:16.218705
- Title: On the Self Shuffle Language
- Title(参考訳): 自己シャッフル言語について
- Authors: Pamela Fleischmann and Tero Harju and Lukas Haschke and Jonas H\"ofer
and Dirk Nowotka
- Abstract要約: 2つの単語 (u) と (v) のシャッフル積 (shuffle v) は、 (u) と (v) をインターリービングすることで得られる全ての単語の集合である。
- 参考スコア(独自算出の注目度): 1.3229510087215552
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The shuffle product \(u\shuffle v\) of two words \(u\) and \(v\) is the set
of all words which can be obtained by interleaving \(u\) and \(v\). Motivated
by the paper \emph{The Shuffle Product: New Research Directions} by Restivo
(2015) we investigate a special case of the shuffle product. In this work we
consider the shuffle of a word with itself called the \emph{self shuffle} or
\emph{shuffle square}, showing first that the self shuffle language and the
shuffle of the language are in general different sets. We prove that the
language of all words arising as a self shuffle of some word is context
sensitive but not context free. Furthermore, we show that the self shuffle \(w
\shuffle w\) uniquely determines \(w\).
- Abstract(参考訳): 2つの単語 \(u\) と \(v\) のシャッフル積 \(u\shuffle v\) は、 \(u\) と \(v\) をインターリービングすることで得られるすべての単語の集合である。
restivo (2015) の論文 \emph{the shuffle product: new research directions} に動機づけられ、シャッフル製品の特別なケースを調査した。
この研究では、単語のシャッフル自体を \emph{self shuffle} あるいは \emph{shuffle square} と呼び、まず、自己シャッフル言語と言語のシャッフルが一般に異なる集合であることを示す。
我々は、ある単語の自己シャッフルとして生じる全ての単語の言語が文脈に敏感であるが文脈自由ではないことを証明する。
さらに、自己シャッフル \(w \shuffle w\) が一意に \(w\) を決定することを示す。
関連論文リスト
- Word Order and World Knowledge [9.22384870426709]
言語モデルを用いて,語順が生テキストから世界知識の誘導にどう影響するかを考察する。
具体的には、自然語順に加えて、5つの言語からそれぞれ6つの固定語順のテキストを抽出する。
論文 参考訳(メタデータ) (2024-03-01T08:13:48Z) - Dictionary Learning Improves Patch-Free Circuit Discovery in Mechanistic
Interpretability: A Case Study on Othello-GPT [59.245414547751636]
本稿では,アクティベーションパッチに代わる回路発見フレームワークを提案する。
当社のフレームワークはアウト・オブ・ディストリビューション(out-of-distribution)に悩まされており、複雑さの観点からより効率的であることが証明されています。
我々はOthelloという名前の合成タスクで訓練された小さなトランスフォーマーを掘り下げ、その内部に人間に理解可能な微細な回路がいくつかある。
論文 参考訳(メタデータ) (2024-02-19T15:04:53Z) - Concurrent Shuffle Differential Privacy Under Continual Observation [60.127179363119936]
個人的連続和問題(対数問題)について検討する。
並列シャッフルモデルでは,標準シャッフルモデルに比べて誤差が大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2023-01-29T20:42:54Z) - Word Order Does Matter (And Shuffled Language Models Know It) [9.990431777927421]
近年の研究では、ランダムに置換された文に対して事前訓練および/または微調整された言語モデルがGLUE上での競合性能を示すことが示されている。
シャッフルテキストエンコードから得られた位置埋め込みについて検討し、これらのモデルが元の自然主義的な単語順序に関する情報を保持することを示す。
論文 参考訳(メタデータ) (2022-03-21T14:10:15Z) - Simple, Interpretable and Stable Method for Detecting Words with Usage
Change across Corpora [54.757845511368814]
2つの文体を比較し、その用法が異なる単語を探すという問題は、しばしばデジタル人文科学や計算社会科学において生じる。
これは一般に、各コーパスに単語の埋め込みを訓練し、ベクトル空間を整列させ、整列空間における余弦距離が大きい単語を探すことでアプローチされる。
本稿では,ベクトル空間アライメントを使わず,各単語の近傍を考慮した代替手法を提案する。
論文 参考訳(メタデータ) (2021-12-28T23:46:00Z) - When is Wall a Pared and when a Muro? -- Extracting Rules Governing
Lexical Selection [85.0262994506624]
本稿では,微細な語彙の区別を自動的に識別する手法を提案する。
我々は、これらの区別を説明する簡潔な記述を、人間と機械で読める形式で抽出する。
我々はこれらの記述を用いて、与えられた曖昧な単語を異なる可能な翻訳に翻訳する時、非ネイティブ話者に教える。
論文 参考訳(メタデータ) (2021-09-13T14:49:00Z) - Out of Order: How important is the sequential order of words in a
sentence in Natural Language Understanding tasks? [34.18339528128342]
最先端の自然言語理解モデルは、予測を行うときに単語の順序を気にしません。
BERTベースのモデルは、ランダムな順序でトークンが配置された場合、表面的な手がかりを利用して正しい決定を行う。
我々の研究は、多くのGLUEタスクが文の意味を理解するのに難題ではないことを示唆している。
論文 参考訳(メタデータ) (2020-12-30T14:56:12Z) - PBoS: Probabilistic Bag-of-Subwords for Generalizing Word Embedding [16.531103175919924]
単語の埋め込みを一般化する作業について検討する。
有限語彙上の事前訓練された単語ベクトルの集合が与えられた場合、その目標は語彙外単語に対する埋め込みベクトルを予測することである。
サブワードセグメント化を同時にモデル化し,サブワードをベースとした合成単語の埋め込みを計算できるモデルを提案する。
論文 参考訳(メタデータ) (2020-10-21T08:11:08Z) - Semantic Label Smoothing for Sequence to Sequence Problems [54.758974840974425]
そこで本研究では,対象シーケンスとn-gramの重なり合いが十分である,エンハンウェル上のスムーズな関連配列を生成する手法を提案する。
提案手法は, 異なるデータセット上での最先端技術よりも一貫した, 顕著な改善を示す。
論文 参考訳(メタデータ) (2020-10-15T00:31:15Z) - Lexical Sememe Prediction using Dictionary Definitions by Capturing
Local Semantic Correspondence [94.79912471702782]
セメムは人間の言語の最小の意味単位として定義されており、多くのNLPタスクで有用であることが証明されている。
本稿では,このようなマッチングを捕捉し,セメムを予測できるセメム対応プールモデルを提案する。
我々は,有名なSememe KB HowNetのモデルとベースライン手法を評価し,そのモデルが最先端のパフォーマンスを実現することを発見した。
論文 参考訳(メタデータ) (2020-01-16T17:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。