論文の概要: Explaining Relation Classification Models with Semantic Extents
- arxiv url: http://arxiv.org/abs/2308.02193v1
- Date: Fri, 4 Aug 2023 08:17:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 13:31:25.063258
- Title: Explaining Relation Classification Models with Semantic Extents
- Title(参考訳): 意味表現を用いた関係分類モデルの説明
- Authors: Lars Kl\"oser, Andre B\"usgen, Philipp Kohl, Bodo Kraft, Albert
Z\"undorf
- Abstract要約: 説明責任の欠如は、多くの現実世界のアプリケーションで現在複雑になっている要素である。
関係分類タスクにおける決定パターンを解析する概念である意味範囲を導入する。
我々は、人やモデルの意味範囲を決定するためのアノテーションツールとソフトウェアフレームワークを提供する。
- 参考スコア(独自算出の注目度): 1.7604348079019634
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years, the development of large pretrained language models, such as
BERT and GPT, significantly improved information extraction systems on various
tasks, including relation classification. State-of-the-art systems are highly
accurate on scientific benchmarks. A lack of explainability is currently a
complicating factor in many real-world applications. Comprehensible systems are
necessary to prevent biased, counterintuitive, or harmful decisions.
We introduce semantic extents, a concept to analyze decision patterns for the
relation classification task. Semantic extents are the most influential parts
of texts concerning classification decisions. Our definition allows similar
procedures to determine semantic extents for humans and models. We provide an
annotation tool and a software framework to determine semantic extents for
humans and models conveniently and reproducibly. Comparing both reveals that
models tend to learn shortcut patterns from data. These patterns are hard to
detect with current interpretability methods, such as input reductions. Our
approach can help detect and eliminate spurious decision patterns during model
development. Semantic extents can increase the reliability and security of
natural language processing systems. Semantic extents are an essential step in
enabling applications in critical areas like healthcare or finance. Moreover,
our work opens new research directions for developing methods to explain deep
learning models.
- Abstract(参考訳): 近年,BERT や GPT といった大規模事前学習型言語モデルの開発は,関係分類を含む様々なタスクにおける情報抽出システムを大幅に改善している。
最先端システムは科学的ベンチマークでは極めて正確である。
説明責任の欠如は、多くの現実世界のアプリケーションで現在複雑になっている要素である。
包括的システムは偏見、直観、有害な決定を防止するために必要である。
関係分類タスクにおける決定パターンを解析する概念である意味範囲を導入する。
意味範囲は分類決定に関するテキストの最も影響力のある部分である。
我々の定義では、同様の手順で人間とモデルの意味範囲を決定できる。
人間やモデルの意味範囲を便利かつ再現的に決定するためのアノテーションツールとソフトウェアフレームワークを提供する。
両者を比較すると、モデルはデータからショートカットパターンを学ぶ傾向がある。
これらのパターンは、入力の削減など、現在の解釈可能性法では検出が難しい。
このアプローチは、モデル開発中に散発的な決定パターンを検出し、排除するのに役立つ。
意味的範囲は自然言語処理システムの信頼性と安全性を高める。
セマンティックな範囲は、医療や金融といった重要な分野の応用を可能にするための重要なステップである。
さらに,本研究は,深層学習モデルを説明する手法の開発に向けた新たな研究方向を開く。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Probing the Decision Boundaries of In-context Learning in Large Language Models [31.977886254197138]
本稿では,テキスト内二項分類のための決定境界のレンズからテキスト内学習を探索し,理解するための新しいメカニズムを提案する。
驚いたことに、単純な二項分類タスクにおいて、現在のLLMによって学習される決定境界は、しばしば不規則で非滑らかである。
論文 参考訳(メタデータ) (2024-06-17T06:00:24Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Topological Interpretability for Deep-Learning [0.30806551485143496]
ディープラーニング(DL)モデルは、予測の確実性を定量化できない。
本研究は,臨床および非臨床のテキストに基づいて訓練された2つのDL分類モデルにおいて,特徴を推測する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:38:13Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Learning Disentangled Representations for Natural Language Definitions [0.0]
テキストデータの連続的な構文的・意味的規則性は、構造的バイアスと生成的要因の両方をモデルに提供するのに有効である、と我々は主張する。
本研究では,文型,定義文の表現的・意味的に密接なカテゴリに存在する意味的構造を利用して,不整合表現を学習するための変分オートエンコーダを訓練する。
論文 参考訳(メタデータ) (2022-09-22T14:31:55Z) - Testing Pre-trained Language Models' Understanding of Distributivity via
Causal Mediation Analysis [13.07356367140208]
自然言語推論のための新しい診断データセットであるDistNLIを紹介する。
モデルの理解の範囲は、モデルのサイズと語彙のサイズと関連していることがわかった。
論文 参考訳(メタデータ) (2022-09-11T00:33:28Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。