論文の概要: A Sea of Words: An In-Depth Analysis of Anchors for Text Data
- arxiv url: http://arxiv.org/abs/2205.13789v1
- Date: Fri, 27 May 2022 06:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 12:20:50.826432
- Title: A Sea of Words: An In-Depth Analysis of Anchors for Text Data
- Title(参考訳): 単語の海:テキストデータのためのアンカーの詳細な分析
- Authors: Gianluigi Lopardo, Damien Garreau, Frederic Precioso
- Abstract要約: Anchorsは、テキストデータに対するルールベースの解釈可能性メソッドである。
我々は,ベストアンカーの探索が徹底的であることを考慮し,アンカーの理論的解析を行った。
この分析を利用して、基本if-then規則や線形分類器を含む単純なモデル上でのアンカーの挙動の洞察を得る。
- 参考スコア(独自算出の注目度): 6.681943980068051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anchors [Ribeiro et al. (2018)] is a post-hoc, rule-based interpretability
method. For text data, it proposes to explain a decision by highlighting a
small set of words (an anchor) such that the model to explain has similar
outputs when they are present in a document. In this paper, we present the
first theoretical analysis of Anchors, considering that the search for the best
anchor is exhaustive. We leverage this analysis to gain insights on the
behavior of Anchors on simple models, including elementary if-then rules and
linear classifiers.
- Abstract(参考訳): Anchors [Ribeiro et al. (2018)] はポストホックなルールベースの解釈可能性法である。
テキストデータについては,文書に記述するモデルが類似した出力を持つように,単語(アンカー)の小さな集合を強調することで,決定を説明することを提案する。
本稿では,最良アンカーの探索が徹底的であることを考慮し,アンカーの理論的解析について述べる。
この分析を利用して、基本if-then規則や線形分類器を含む単純なモデル上でのアンカーの挙動の洞察を得る。
関連論文リスト
- Hierarchical Indexing for Retrieval-Augmented Opinion Summarization [60.5923941324953]
本稿では,抽出アプローチの帰属性と拡張性と,大規模言語モデル(LLM)の一貫性と拡散性を組み合わせた,教師なし抽象的意見要約手法を提案する。
我々の方法であるHIROは、意味的に整理された離散的な階層を通して文を経路にマッピングするインデックス構造を学習する。
推測時にインデックスを投入し、入力レビューから人気意見を含む文群を識別し、検索する。
論文 参考訳(メタデータ) (2024-03-01T10:38:07Z) - Scene Text Recognition Models Explainability Using Local Features [11.990881697492078]
Scene Text Recognition (STR) 説明可能性(Explainability)は、人間がモデルの予測の原因を理解する方法の研究である。
STRに関する最近のXAI文献は、単純な分析のみを提供しており、他のXAI手法を完全には探求していない。
具体的には、ディープラーニングモデルにおける入力データの重要な部分を説明する、属性ベースの手法と呼ばれるデータ説明可能性フレームワークについて研究する。
本研究では,局所的な説明,すなわち個々のキャラクタ予測説明を考慮に入れたSTRExpという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-14T10:01:52Z) - Label Words are Anchors: An Information Flow Perspective for
Understanding In-Context Learning [77.7070536959126]
大規模言語モデル(LLM)の有望な能力としてインコンテキスト学習(ICL)が出現する
本稿では,情報フローレンズを用いたICLの動作機構について検討する。
本稿では,ICL性能向上のためのアンカー再重み付け手法,推論の高速化のための実演圧縮手法,GPT2-XLにおけるICLエラーの診断のための解析フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T15:26:20Z) - Unsupervised Dense Retrieval Training with Web Anchors [29.44275536993025]
我々は、アンカーテキストとリンクされた文書にマッチする対照的な学習タスクで、教師なしの密集型検索器、Anchor-DRを訓練する。
実験により、アンカーDRは、教師なし密集検索における最先端の手法よりも大きなマージンで優れていることが示された。
解析により,アンカー文書対のパターンが検索クエリ文書対のパターンと類似していることが明らかになった。
論文 参考訳(メタデータ) (2023-05-10T01:46:17Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - Explaining Latent Representations with a Corpus of Examples [72.50996504722293]
本稿では,サンプルベースの説明を自由に選択されたサンプル集合を参照して提供するユーザ中心の手法であるSimplExを提案する。
SimplExは、ポストホックな説明で潜伏空間に対するユーザの理解を改善するためにコーパスを使用する。
SimplExは,モデル表現を説明するコーパス内の関連パターンを強調表示することで,ユーザを力づけることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:59:06Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Ontology-based Interpretable Machine Learning for Textual Data [35.01650633374998]
本稿では,予測モデルを説明するためのサンプリング手法に基づいて,解釈可能なモデルを学習する新しい解釈フレームワークを提案する。
説明のために探索空間を狭めるために,学習可能なアンカーアルゴリズムを設計する。
さらに、学習された解釈可能な表現とアンカーを組み合わせることで、理解可能な説明を生成する一連の規則が導入された。
論文 参考訳(メタデータ) (2020-04-01T02:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。