論文の概要: Instance-Based Learning of Span Representations: A Case Study through
Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2004.14514v1
- Date: Wed, 29 Apr 2020 23:32:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 13:00:16.386431
- Title: Instance-Based Learning of Span Representations: A Case Study through
Named Entity Recognition
- Title(参考訳): スパン表現のインスタンスベース学習:名前付きエンティティ認識によるケーススタディ
- Authors: Hiroki Ouchi, Jun Suzuki, Sosuke Kobayashi, Sho Yokoi, Tatsuki
Kuribayashi, Ryuto Konno, Kentaro Inui
- Abstract要約: 本研究では,スパン間の類似性を学習するインスタンスベースの学習手法を提案する。
本手法では,性能を犠牲にすることなく高い解釈性を持つモデルを構築することができる。
- 参考スコア(独自算出の注目度): 48.06319154279427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretable rationales for model predictions play a critical role in
practical applications. In this study, we develop models possessing
interpretable inference process for structured prediction. Specifically, we
present a method of instance-based learning that learns similarities between
spans. At inference time, each span is assigned a class label based on its
similar spans in the training set, where it is easy to understand how much each
training instance contributes to the predictions. Through empirical analysis on
named entity recognition, we demonstrate that our method enables to build
models that have high interpretability without sacrificing performance.
- Abstract(参考訳): モデル予測の解釈可能な理性は、実際的な応用において重要な役割を果たす。
本研究では,構造予測のための解釈可能な推論プロセスを有するモデルを開発する。
具体的には,スパン間の類似性を学習するインスタンスベース学習手法を提案する。
推論時に、各スパンはトレーニングセットの類似スパンに基づいてクラスラベルが割り当てられ、各トレーニングインスタンスが予測にどの程度貢献するかを簡単に理解できます。
名前付きエンティティ認識の実証分析により,性能を犠牲にすることなく高い解釈性を持つモデルを構築することができることを示す。
関連論文リスト
- A Probabilistic Model behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
識別性SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示す。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Discriminative, Generative and Self-Supervised Approaches for
Target-Agnostic Learning [8.666667951130892]
生成的および自己教師型学習モデルは、そのタスクでうまく機能することが示されている。
擬似相似理論の導出した定理は、結合分布モデルの推定に関係があることも示している。
論文 参考訳(メタデータ) (2020-11-12T15:03:40Z) - Pair the Dots: Jointly Examining Training History and Test Stimuli for
Model Interpretability [44.60486560836836]
モデルからの予測は、学習履歴とテスト刺激の組み合わせによって行われる。
モデルの予測を解釈する既存の方法は、テスト刺激または学習履歴の1つの側面しかキャプチャできない。
本研究では,学習履歴とテスト刺激を共同で調べることで,モデルの予測を解釈しやすくするための,効率的かつ異なるアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-14T10:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。