論文の概要: Biochemical Space Language in Relation to Multiset Rewriting Systems
- arxiv url: http://arxiv.org/abs/2201.08817v1
- Date: Wed, 12 Jan 2022 15:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-30 11:35:33.062593
- Title: Biochemical Space Language in Relation to Multiset Rewriting Systems
- Title(参考訳): マルチセット書き換えシステムに関する生化学空間言語
- Authors: Matej Troj\'ak, David \v{S}afr\'anek, Lubo\v{s} Brim
- Abstract要約: 本稿では,バイオケミカルスペース言語(BCSL)とマルチセット書き換えシステム(MRS)について述べる。
BCSLモデルでは、セマンティクスは遷移系で定義されるが、MSSでは一連の実行系で定義される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This technical report relates Biochemical Space Language (BCSL) to Multiset
rewriting systems (MRS). For a BCSL model, the semantics are defined in terms
of transition systems, while for an MRS, they are defined in terms of a set of
runs. In this report, we relate BCSL to MRS by first showing how the transition
system is related to a set of runs and consequently showing how for every BCSL
model, an MRS can be constructed such that both represent the same set of runs.
The motivation of this step is to establish BCSL in the context of a more
general rewriting system and benefit from properties shown for them. Finally,
we show that regulations defined for MRS can be consequently used in the BCSL
model.
- Abstract(参考訳): 本報告は、生化学空間言語(bcsl)とマルチセット書き換えシステム(mrs)に関するものである。
BCSLモデルでは、セマンティクスは遷移系で定義されるが、MSSでは一連の実行系で定義される。
本稿では,BCSL と MRS を,遷移系が一組のランとどのように関連しているかを示し,その結果,各 BCSL モデルに対して,同一のランの集合を表すような MRS を構築する方法を示す。
このステップの動機は、より一般的な書き換えシステムの文脈でBCSLを確立し、それらに示される特性の恩恵を得ることである。
最後に, MRS に規定された規則を BCSL モデルで適用可能であることを示す。
関連論文リスト
- Leveraging the Power of MLLMs for Gloss-Free Sign Language Translation [6.688680877428467]
そこで我々は,Gloss-free Multimodal Sign Language Translationフレームワークを提案する。
マルチモーダルな大言語モデルを用いて手話コンポーネントの詳細なテキスト記述を生成する。
提案手法は,ベンチマークデータセットPHOENIX14TとCSL-Dailyの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T09:01:41Z) - Multi-label Sequential Sentence Classification via Large Language Model [4.012351415340318]
本稿では,LLM-SSCを提案する。LLM-SSCは大規模言語モデル(LLM)をベースとした,シングルラベルとマルチラベルのSSCタスクのためのフレームワークである。
従来の中小言語モデルを用いたアプローチとは異なり、提案フレームワークはLSMを用いて設計したプロンプトを通じてSSCラベルを生成する。
また、自動重み付け方式によるマルチラベルのコントラスト学習損失も提示し、マルチラベル分類タスクを可能にする。
論文 参考訳(メタデータ) (2024-11-23T18:27:35Z) - Preference-grounded Token-level Guidance for Language Model Fine-tuning [105.88789610320426]
好みのある言語モデルを調整することは、自然言語生成において重要な問題である。
LMトレーニングでは、教師付きデータの量に基づいて、学習指導を利用する2つの「ミニマリスト*学習目標」を示す。
実験において,本手法は2つの異なるLMタスクに対して競合的に動作する。
論文 参考訳(メタデータ) (2023-06-01T07:00:07Z) - Inconsistencies in Masked Language Models [20.320583166619528]
Masked Language Model (MLM) は、マスキングされた位置におけるトークンの分布をシーケンスで提供することができる。
異なるマスキングパターンに対応する分布は、かなりの矛盾を示す可能性がある。
本稿では,条件文の集合(Ensemble of Conditionals)と呼ばれる fors の推論時間戦略を提案する。
論文 参考訳(メタデータ) (2022-12-30T22:53:25Z) - Monolingual Recognizers Fusion for Code-switching Speech Recognition [43.38810173824711]
CS ASRのための単言語認識器融合法を提案する。
言語認知ステージと言語融合ステージの2つのステージがある。
マンダリン・イングリッシュコーパスの実験では,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-11-02T11:24:26Z) - Token-level Sequence Labeling for Spoken Language Understanding using
Compositional End-to-End Models [94.30953696090758]
音声合成言語理解システムを構築した。
ASRのために訓練された中間デコーダを頼りにすることで、私たちのエンドツーエンドシステムは、入力モダリティを音声からトークンレベルの表現に変換する。
我々のモデルは、名前付きエンティティ認識のラベル付けタスクにおいて、カスケードモデルと直接エンド・ツー・エンドモデルの両方より優れている。
論文 参考訳(メタデータ) (2022-10-27T19:33:18Z) - Bridging the Gap between Language Models and Cross-Lingual Sequence
Labeling [101.74165219364264]
大規模言語間事前学習言語モデル (xPLM) は、言語間シーケンスラベリングタスクにおいて有効であることを示す。
大きな成功にもかかわらず、事前学習と微調整の段階の間には訓練対象のギャップがあるという経験的観察を描いている。
本稿では,まず,言語間インフォーマティブ・スパン・マスキング(CLISM)と呼ばれるxSLのための事前学習タスクを設計し,目的のギャップを解消する。
第2に、コントラスト学習を利用して入力並列表現間の一貫性を促進するContrAstive-Consistency Regularization (CACR)を提案する。
論文 参考訳(メタデータ) (2022-04-11T15:55:20Z) - A Variational Hierarchical Model for Neural Cross-Lingual Summarization [85.44969140204026]
言語間の要約(英: cross-lingual summarization)とは、ある言語の文書を別の言語の要約に変換することである。
CLSに関する既存の研究は主にパイプライン手法の利用やエンドツーエンドモデルの共同トレーニングに重点を置いている。
条件付き変分自動エンコーダに基づくCLSタスクの階層モデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:46:11Z) - Transfer Learning Approaches for Building Cross-Language Dense Retrieval
Models [25.150140840908257]
ColBERT-Xは、言語間の情報検索をサポートするために、ColBERT多表現密度検索モデルの一般化である。
ゼロショットトレーニングでは、XLM-Rエンコーダを使って英語MS MARCOコレクションをトレーニングする。
翻訳訓練では、MS MARCOの英語クエリと関連するMS MARCOの機械翻訳を併用して訓練を行う。
論文 参考訳(メタデータ) (2022-01-20T22:11:38Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - Future Vector Enhanced LSTM Language Model for LVCSR [67.03726018635174]
本稿では,将来ベクトルを用いた拡張長短期メモリ(LSTM)LMを提案する。
実験の結果,提案したLSTM LMはBLEUスコアよりも長期のシーケンス予測に有効であることがわかった。
新たなLSTM LMと従来のLSTM LMを併用することで,単語誤り率を大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-07-31T08:38:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。