論文の概要: Explaining Relation Classification Models with Semantic Extents
- arxiv url: http://arxiv.org/abs/2308.02193v1
- Date: Fri, 4 Aug 2023 08:17:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 13:31:25.063258
- Title: Explaining Relation Classification Models with Semantic Extents
- Title(参考訳): 意味表現を用いた関係分類モデルの説明
- Authors: Lars Kl\"oser, Andre B\"usgen, Philipp Kohl, Bodo Kraft, Albert
Z\"undorf
- Abstract要約: 説明責任の欠如は、多くの現実世界のアプリケーションで現在複雑になっている要素である。
関係分類タスクにおける決定パターンを解析する概念である意味範囲を導入する。
我々は、人やモデルの意味範囲を決定するためのアノテーションツールとソフトウェアフレームワークを提供する。
- 参考スコア(独自算出の注目度): 1.7604348079019634
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years, the development of large pretrained language models, such as
BERT and GPT, significantly improved information extraction systems on various
tasks, including relation classification. State-of-the-art systems are highly
accurate on scientific benchmarks. A lack of explainability is currently a
complicating factor in many real-world applications. Comprehensible systems are
necessary to prevent biased, counterintuitive, or harmful decisions.
We introduce semantic extents, a concept to analyze decision patterns for the
relation classification task. Semantic extents are the most influential parts
of texts concerning classification decisions. Our definition allows similar
procedures to determine semantic extents for humans and models. We provide an
annotation tool and a software framework to determine semantic extents for
humans and models conveniently and reproducibly. Comparing both reveals that
models tend to learn shortcut patterns from data. These patterns are hard to
detect with current interpretability methods, such as input reductions. Our
approach can help detect and eliminate spurious decision patterns during model
development. Semantic extents can increase the reliability and security of
natural language processing systems. Semantic extents are an essential step in
enabling applications in critical areas like healthcare or finance. Moreover,
our work opens new research directions for developing methods to explain deep
learning models.
- Abstract(参考訳): 近年,BERT や GPT といった大規模事前学習型言語モデルの開発は,関係分類を含む様々なタスクにおける情報抽出システムを大幅に改善している。
最先端システムは科学的ベンチマークでは極めて正確である。
説明責任の欠如は、多くの現実世界のアプリケーションで現在複雑になっている要素である。
包括的システムは偏見、直観、有害な決定を防止するために必要である。
関係分類タスクにおける決定パターンを解析する概念である意味範囲を導入する。
意味範囲は分類決定に関するテキストの最も影響力のある部分である。
我々の定義では、同様の手順で人間とモデルの意味範囲を決定できる。
人間やモデルの意味範囲を便利かつ再現的に決定するためのアノテーションツールとソフトウェアフレームワークを提供する。
両者を比較すると、モデルはデータからショートカットパターンを学ぶ傾向がある。
これらのパターンは、入力の削減など、現在の解釈可能性法では検出が難しい。
このアプローチは、モデル開発中に散発的な決定パターンを検出し、排除するのに役立つ。
意味的範囲は自然言語処理システムの信頼性と安全性を高める。
セマンティックな範囲は、医療や金融といった重要な分野の応用を可能にするための重要なステップである。
さらに,本研究は,深層学習モデルを説明する手法の開発に向けた新たな研究方向を開く。
関連論文リスト
- Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - Mechanistic understanding and validation of large AI models with SemanticLens [13.712668314238082]
航空機のような人間工学的なシステムとは異なり、AIモデルの内部動作はほとんど不透明である。
本稿では、コンポーネントによって符号化された隠れた知識をマッピングするニューラルネットワークの普遍的説明法であるSemanticLensを紹介する。
論文 参考訳(メタデータ) (2025-01-09T17:47:34Z) - Explaining the Unexplained: Revealing Hidden Correlations for Better Interpretability [1.8274323268621635]
Real Explainer(RealExp)は、Shapley値を個々の特徴と特徴相関の重要度に分解する、解釈可能性の手法である。
RealExpは、個々の特徴とそれらの相互作用を正確に定量化することで、解釈可能性を高める。
論文 参考訳(メタデータ) (2024-12-02T10:50:50Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Topological Interpretability for Deep-Learning [0.30806551485143496]
ディープラーニング(DL)モデルは、予測の確実性を定量化できない。
本研究は,臨床および非臨床のテキストに基づいて訓練された2つのDL分類モデルにおいて,特徴を推測する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:38:13Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Learning Disentangled Representations for Natural Language Definitions [0.0]
テキストデータの連続的な構文的・意味的規則性は、構造的バイアスと生成的要因の両方をモデルに提供するのに有効である、と我々は主張する。
本研究では,文型,定義文の表現的・意味的に密接なカテゴリに存在する意味的構造を利用して,不整合表現を学習するための変分オートエンコーダを訓練する。
論文 参考訳(メタデータ) (2022-09-22T14:31:55Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。