論文の概要: Linear Temporal Public Announcement Logic: a new perspective for
reasoning about the knowledge of multi-classifiers
- arxiv url: http://arxiv.org/abs/2009.03793v3
- Date: Tue, 24 May 2022 09:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 21:11:30.710169
- Title: Linear Temporal Public Announcement Logic: a new perspective for
reasoning about the knowledge of multi-classifiers
- Title(参考訳): 線形時間公開発表論理 : 複数分類器の知識を推論するための新しい視点
- Authors: Amirhoshang Hoseinpour Dehkordi, Majid Alizadeh, Ali Movaghar
- Abstract要約: LTPALと呼ばれる形式的遷移システムモデルは、分類過程において知識を抽出するために提案される。
このモデルは、PAL(Public Announcement Logic)とLTL(Linear Temporal Logic)を組み合わせたものである。
- 参考スコア(独自算出の注目度): 2.588063924663932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this note, a formal transition system model called LTPAL to extract
knowledge in a classification process is suggested. The model combines the
Public Announcement Logic (PAL) and the Linear Temporal Logic (LTL). In the
model, first, we consider classifiers, which capture single-framed data. Next,
we took classifiers for data-stream data input into consideration. Finally, we
formalize natural language properties in LTPAL with a video-stream object
detection sample.
- Abstract(参考訳): 本稿では,分類過程における知識を抽出するLTPALという形式的遷移システムモデルを提案する。
このモデルは、PAL(Public Announcement Logic)とLTL(Linear Temporal Logic)を組み合わせたものである。
モデルでは,まず,単一フレームデータを取り込む分類器について検討する。
次に、データストリームデータ入力の分類器を考慮に入れた。
最後に,ビデオストリームオブジェクト検出サンプルを用いてLTPALの自然言語特性を定式化する。
関連論文リスト
- Linking in Style: Understanding learned features in deep learning models [0.0]
畳み込みニューラルネットワーク(CNN)は抽象的な特徴を学び、オブジェクト分類を行う。
本稿では,CNNにおける学習特徴を可視化し,体系的に解析する自動手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T12:28:48Z) - Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - Localized Symbolic Knowledge Distillation for Visual Commonsense Models [150.18129140140238]
ローカル化されたVisual Commonsenseモデルを構築し、ユーザが入力として(複数の)リージョンを指定できるようにします。
大規模言語モデルから局所的なコモンセンス知識を抽出してモデルを訓練する。
局所化コモンセンスコーパスのトレーニングにより,既存の視覚言語モデルを抽出し,リファレンス・アズ・インプット・インタフェースをサポートできることが判明した。
論文 参考訳(メタデータ) (2023-12-08T05:23:50Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Internal language model estimation through explicit context vector
learning for attention-based encoder-decoder ASR [19.233720469733797]
本稿では,Lens-Attend-Spell(LAS)モデルに基づく2つの新しい手法を提案する。
実験の結果,提案手法により推定されたILMは最も低いパープレキシティを実現することがわかった。
論文 参考訳(メタデータ) (2022-01-26T07:47:27Z) - Neural Unsupervised Semantic Role Labeling [48.69930912510414]
セマンティックロールラベリングのための最初の神経教師なしモデルを提案する。
タスクを2つの引数関連サブタスク、識別とクラスタリングとして分解する。
CoNLL-2009英語データセットの実験では、我々のモデルは過去の最先端のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-04-19T04:50:16Z) - Low-Resource Task-Oriented Semantic Parsing via Intrinsic Modeling [65.51280121472146]
私たちは本質的にオントロジーラベルについて知っているものを利用して、効率的なセマンティック解析モデルを構築します。
我々のモデルはTOPv2から派生した低リソースのベンチマークを用いて高効率である。
論文 参考訳(メタデータ) (2021-04-15T04:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。