論文の概要: Discovering influential text using convolutional neural networks
- arxiv url: http://arxiv.org/abs/2406.10086v1
- Date: Fri, 14 Jun 2024 14:41:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 13:16:10.370587
- Title: Discovering influential text using convolutional neural networks
- Title(参考訳): 畳み込みニューラルネットワークによる影響力のあるテキストの発見
- Authors: Megan Ayers, Luke Sanford, Margaret Roberts, Eddie Yang,
- Abstract要約: 本稿では,畳み込みニューラルネットワークを用いたテキストに対する人間の反応を予測可能な類似文句のクラスタを発見する手法を提案する。
提案手法を2つのデータセットに適用し,まず,結果の原因となるフレーズをモデルが検出する能力の直接検証を可能にする。
どちらの場合も、モデルはベンチマーク手法よりも多種多様なテキスト処理を学習し、これらのテキスト機能は、ベンチマーク手法が結果を予測する能力を定量的に満たしたり、超えたりすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Experimental methods for estimating the impacts of text on human evaluation have been widely used in the social sciences. However, researchers in experimental settings are usually limited to testing a small number of pre-specified text treatments. While efforts to mine unstructured texts for features that causally affect outcomes have been ongoing in recent years, these models have primarily focused on the topics or specific words of text, which may not always be the mechanism of the effect. We connect these efforts with NLP interpretability techniques and present a method for flexibly discovering clusters of similar text phrases that are predictive of human reactions to texts using convolutional neural networks. When used in an experimental setting, this method can identify text treatments and their effects under certain assumptions. We apply the method to two datasets. The first enables direct validation of the model's ability to detect phrases known to cause the outcome. The second demonstrates its ability to flexibly discover text treatments with varying textual structures. In both cases, the model learns a greater variety of text treatments compared to benchmark methods, and these text features quantitatively meet or exceed the ability of benchmark methods to predict the outcome.
- Abstract(参考訳): 人的評価に対するテキストの影響を推定するための実験的手法が社会科学で広く用いられている。
しかしながら、実験的な設定の研究者は通常、少数の特定されたテキスト処理のテストに限られる。
結果に因果的に影響を及ぼす特徴に対する非構造化テキストのマイニングは近年行われているが、これらのモデルは主に、その効果のメカニズムであるとは限らないトピックや特定のテキストの単語に焦点を当てている。
我々は、これらの取り組みをNLP解釈可能性技術と結びつけ、畳み込みニューラルネットワークを用いたテキストに対する人間の反応を予測可能な類似文句のクラスタを柔軟に発見する方法を提案する。
実験環境で使用する場合、特定の仮定の下でテキスト処理とその効果を識別することができる。
この手法を2つのデータセットに適用する。
1つ目は、モデルが結果を引き起こすことが知られているフレーズを検知する能力の直接検証を可能にすることである。
2つ目は、様々なテキスト構造を持つテキスト処理を柔軟に発見する能力を示している。
どちらの場合も、このモデルはベンチマーク手法よりも多種多様なテキスト処理を学習し、これらのテキスト機能はベンチマーク手法が結果を予測する能力を定量的に満たしたり、超えたりすることができる。
関連論文リスト
- From Text to Treatment Effects: A Meta-Learning Approach to Handling Text-Based Confounding [7.5348062792]
本稿では,共起変数をテキストで表現する場合のメタラーナーの性能について検討する。
共同創設者の事前学習したテキスト表現を用いた学習者は,CATE推定精度の向上を図っている。
テキスト埋め込みの絡み合った性質のため、これらのモデルは、完全な共同創設者の知識を持つメタ学習者のパフォーマンスと完全には一致しない。
論文 参考訳(メタデータ) (2024-09-23T19:46:19Z) - Detecting Subtle Differences between Human and Model Languages Using Spectrum of Relative Likelihood [5.404146472517001]
本研究は、絶対値ではなく相対的確率値を用いることにより、新たな視点を提供する。
本稿では,教師型と教師型という2つの分類法を用いた検出手法を提案する。
また,人間の言語とモデル言語との微妙な差異を明らかにし,心理言語学研究の理論的ルーツを見出すことができる。
論文 参考訳(メタデータ) (2024-06-28T12:28:52Z) - Improving Sampling Methods for Fine-tuning SentenceBERT in Text Streams [49.3179290313959]
本研究では,選択的な微調整言語モデルの設計した7つのテキストサンプリング手法の有効性について検討した。
これらの手法がSBERTモデルの微調整に与える影響を, 4つの異なる損失関数を用いて正確に評価する。
その結果,テキストストリームの分類にはソフトマックスの損失とバッチ・オール・トリプレットの損失が特に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-18T23:41:52Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - An Information-Theoretic Approach for Detecting Edits in AI-Generated Text [7.013432243663526]
本稿では,ある記事が生成言語モデルで完全に書かれたのか,あるいは異なる著者による編集を含むのか,あるいは人間なのかを判断する手法を提案する。
本手法の有効性を実データを用いた広範囲な評価により示す。
我々の分析は、情報理論とデータ科学の共通点における興味深い研究課題をいくつか提起する。
論文 参考訳(メタデータ) (2023-08-24T12:49:21Z) - On the Possibilities of AI-Generated Text Detection [76.55825911221434]
機械が生成するテキストが人間に近い品質を近似するにつれて、検出に必要なサンプルサイズが増大すると主張している。
GPT-2, GPT-3.5-Turbo, Llama, Llama-2-13B-Chat-HF, Llama-2-70B-Chat-HFなどの最先端テキストジェネレータをoBERTa-Large/Base-Detector, GPTZeroなどの検出器に対して試験した。
論文 参考訳(メタデータ) (2023-04-10T17:47:39Z) - Real or Fake Text?: Investigating Human Ability to Detect Boundaries
Between Human-Written and Machine-Generated Text [23.622347443796183]
我々は、テキストが人間の書き起こしから始まり、最先端のニューラルネットワークモデルによって生成されるようになる、より現実的な状況について研究する。
この課題でアノテータはしばしば苦労するが、アノテータのスキルにはかなりのばらつきがあり、適切なインセンティブが与えられると、アノテータは時間とともに改善できることを示す。
論文 参考訳(メタデータ) (2022-12-24T06:40:25Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。