論文の概要: Latent Space Interpretation for Stylistic Analysis and Explainable Authorship Attribution
- arxiv url: http://arxiv.org/abs/2409.07072v1
- Date: Wed, 11 Sep 2024 07:48:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 15:26:28.939611
- Title: Latent Space Interpretation for Stylistic Analysis and Explainable Authorship Attribution
- Title(参考訳): スタリスティック解析と説明可能なオーサシップ属性のための潜時空間解釈
- Authors: Milad Alshomary, Narutatsu Ri, Marianna Apidianaki, Ajay Patel, Smaranda Muresan, Kathleen McKeown,
- Abstract要約: 最近の最先端の著者帰属法は、潜在的で非解釈可能な空間におけるテキストの著者表現を学習する。
本研究は,潜伏空間における代表点を特定することによって,これらの学習された埋め込みを解釈する新しい手法を提案する。
我々は各点の書き方に関する情報的な自然言語記述を生成する。
- 参考スコア(独自算出の注目度): 37.39889080833109
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent state-of-the-art authorship attribution methods learn authorship representations of texts in a latent, non-interpretable space, hindering their usability in real-world applications. Our work proposes a novel approach to interpreting these learned embeddings by identifying representative points in the latent space and utilizing LLMs to generate informative natural language descriptions of the writing style of each point. We evaluate the alignment of our interpretable space with the latent one and find that it achieves the best prediction agreement compared to other baselines. Additionally, we conduct a human evaluation to assess the quality of these style descriptions, validating their utility as explanations for the latent space. Finally, we investigate whether human performance on the challenging AA task improves when aided by our system's explanations, finding an average improvement of around +20% in accuracy.
- Abstract(参考訳): 近年の最先端の著者帰属法は、潜在的で非解釈可能な空間におけるテキストの著者表現を学習し、現実のアプリケーションにおけるそれらの使用性を妨げている。
本研究は,LLMを用いて各点の代表点を同定し,各点の書き方に関する情報的自然言語記述を生成することによって,これらの学習された埋め込みを解釈する手法を提案する。
我々は,解釈可能な空間と潜在空間とのアライメントを評価し,他のベースラインと比較して最高の予測合意を達成できることを見出した。
さらに、これらのスタイル記述の質を評価するために人間による評価を行い、潜在空間の説明としてそれらの有用性を検証した。
最後に,課題であるAAタスクにおける人的パフォーマンスが,システムの説明に助けられ,平均精度が約20%向上するかどうかを検討する。
関連論文リスト
- Realizing Disentanglement in LM Latent Space via Vocabulary-Defined Semantics [32.178931149612644]
本稿では,語彙定義意味論(vocabulary-defined semantics)と呼ばれる先駆的アプローチを導入する。
我々は、LM適応の新たな方法として、データ表現のセマンティッククラスタリングを行う。
提案手法は,検索拡張生成とパラメータ効率の微調整の最先端手法より優れている。
論文 参考訳(メタデータ) (2024-01-29T14:29:48Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Beyond Labels: Empowering Human Annotators with Natural Language
Explanations through a Novel Active-Learning Architecture [43.85335847262138]
現実世界のドメインの専門家(医師など)は、説明なしに日々のワークフローで意思決定ラベルに注釈を付けることは滅多にない。
本研究は,アノテーションのラベル付けと説明の現実的ニーズを支援するための,新しいアクティブラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-05-22T04:38:10Z) - Transition-based Abstract Meaning Representation Parsing with Contextual
Embeddings [0.0]
本研究では,意味解析のタスクにおいて,言語モデルと記号意味論の定式化という,言語の意味への最も成功したルートを2つ組み合わせる手法について検討する。
本稿では,事前学習した文脈認識単語の埋め込み(BERTやRoBERTaなど)を解析問題に組み込むことの有用性について検討する。
論文 参考訳(メタデータ) (2022-06-13T15:05:24Z) - BERT-ASC: Auxiliary-Sentence Construction for Implicit Aspect Learning in Sentiment Analysis [4.522719296659495]
本稿ではアスペクト分類とアスペクトベース感情サブタスクに対処する統合フレームワークを提案する。
コーパスのセマンティック情報を用いて暗黙的側面のための補助文を構築する機構を導入する。
次に、BERTはアスペクト自体ではなく、この補助文に応答してアスペクト固有の表現を学ぶことを推奨する。
論文 参考訳(メタデータ) (2022-03-22T13:12:27Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - On the Impact of Knowledge-based Linguistic Annotations in the Quality
of Scientific Embeddings [0.0]
我々は, 科学的コーパスから埋め込みを生成するために, 明示的な言語アノテーションを用いた研究を行う。
以上の結果から,組込みにおけるアノテーションの効果は評価作業によってどのように変化するかを示す。
一般に,言語アノテーションを用いた埋め込み学習が,より良い評価結果の獲得に寄与すると考えられる。
論文 参考訳(メタデータ) (2021-04-13T13:51:22Z) - Introducing Syntactic Structures into Target Opinion Word Extraction
with Deep Learning [89.64620296557177]
目的語抽出のためのディープラーニングモデルに文の構文構造を組み込むことを提案する。
また,ディープラーニングモデルの性能向上のために,新たな正規化手法を導入する。
提案モデルは,4つのベンチマークデータセット上での最先端性能を広範囲に解析し,達成する。
論文 参考訳(メタデータ) (2020-10-26T07:13:17Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。