論文の概要: An Enhanced Text Classification to Explore Health based Indian
Government Policy Tweets
- arxiv url: http://arxiv.org/abs/2007.06511v2
- Date: Tue, 18 Aug 2020 12:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 22:47:48.909198
- Title: An Enhanced Text Classification to Explore Health based Indian
Government Policy Tweets
- Title(参考訳): 健康ベースのインド政府の政策ツイートを探索するテキスト分類の強化
- Authors: Aarzoo Dhiman and Durga Toshniwal
- Abstract要約: そこで本稿では,Twitter のさまざまな保健制度の分類を改良したテキスト分類フレームワークを提案する。
そこで我々は,新しいGloVe単語埋め込みとクラス固有の感情に基づくテキスト拡張手法(Mod-EDA)を提案する。
- 参考スコア(独自算出の注目度): 2.2082422928825136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Government-sponsored policy-making and scheme generations is one of the means
of protecting and promoting the social, economic, and personal development of
the citizens. The evaluation of effectiveness of these schemes done by
government only provide the statistical information in terms of facts and
figures which do not include the in-depth knowledge of public perceptions,
experiences and views on the topic. In this research work, we propose an
improved text classification framework that classifies the Twitter data of
different health-based government schemes. The proposed framework leverages the
language representation models (LR models) BERT, ELMO, and USE. However, these
LR models have less real-time applicability due to the scarcity of the ample
annotated data. To handle this, we propose a novel GloVe word embeddings and
class-specific sentiments based text augmentation approach (named Mod-EDA)
which boosts the performance of text classification task by increasing the size
of labeled data. Furthermore, the trained model is leveraged to identify the
level of engagement of citizens towards these policies in different communities
such as middle-income and low-income groups.
- Abstract(参考訳): 政府による政策作成と計画の世代は、市民の社会的、経済的、個人的発展を保護し、促進する手段の1つである。
政府によるこれらのスキームの有効性の評価は、公共の認識、経験、見解の深い知識を含まない事実や数字の観点でのみ統計情報を提供する。
本研究では,様々な保健制度のtwitterデータを分類するための改良されたテキスト分類フレームワークを提案する。
提案するフレームワークは,言語表現モデル(LRモデル)BERT,ELMO,USEを利用する。
しかし,これらのLRモデルはアノテートデータが少ないため,リアルタイム適用性が低い。
そこで本研究では,ラベル付きデータのサイズを増大させることでテキスト分類タスクの性能を向上させる,新しいGloVe単語埋め込みとクラス固有の感情に基づくテキスト拡張アプローチ(Mod-EDA)を提案する。
さらに、訓練されたモデルは、中所得層や低所得層などの異なるコミュニティにおけるこれらの政策に対する市民の関与のレベルを特定するために活用される。
関連論文リスト
- Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - Entity Extraction from High-Level Corruption Schemes via Large Language Models [4.820586736502356]
本稿では,ニュース記事中の個人や組織を識別するアルゴリズムとモデルのための,新しいマイクロベンチマークデータセットを提案する。
このデータセットを用いて、金融犯罪関連記事の個人や組織を特定するための実験的な取り組みも報告されている。
論文 参考訳(メタデータ) (2024-09-05T10:27:32Z) - A Survey on Natural Language Counterfactual Generation [7.022371235308068]
自然言語のカウンターファクト生成は、修正されたテキストが別のクラスに分類されるように、与えられたテキストを最小限に修正することを目的としている。
生成手法を4つのグループに体系的に分類し、生成品質を評価するための指標を要約する新しい分類法を提案する。
論文 参考訳(メタデータ) (2024-07-04T15:13:59Z) - "We Demand Justice!": Towards Social Context Grounding of Political Texts [19.58924256275583]
ソーシャルメディアの談話は、しばしば「政治的スペクトルの対立する側が使用する、見事に類似した言語」で構成されている。
本稿では、そのような曖昧な文を計算環境で完全に理解するために必要なコンテキストを定義する。
本論文では,テキストの現実的コンテキストを理解する必要がある2つの挑戦的データセットを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:53:35Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - FLIRT: Feedback Loop In-context Red Teaming [71.38594755628581]
我々は、与えられたモデルを評価し、その脆弱性を明らかにする自動レッドチーム化フレームワークを提案する。
私たちのフレームワークは、レッドチームモデルに対するフィードバックループでコンテキスト内学習を使用し、それらを安全でないコンテンツ生成にトリガーします。
論文 参考訳(メタデータ) (2023-08-08T14:03:08Z) - DeAR: Debiasing Vision-Language Models with Additive Residuals [5.672132510411465]
大規模な事前学習型視覚言語モデル(VLM)は、リッチで適応可能な画像とテキスト表現を提供する。
これらのモデルは、トレーニングデータ中の様々なアイデンティティ群が歪んだ分布のため、社会的バイアスに悩まされる。
本稿では,元の表現をオフセットする付加的残像表現を学習する新しいデバイアス法であるDeARを提案する。
論文 参考訳(メタデータ) (2023-03-18T14:57:43Z) - Toward Fairness in Text Generation via Mutual Information Minimization
based on Importance Sampling [23.317845744611375]
そこで本研究では,生成した文のセマンティクスと人口極性との間の相互情報の最小化を提案する。
このように、人口集団の言及は、生成したテキストに記述される方法から独立することが奨励される。
また, 脱バイアス後のPLMの言語モデリング能力を維持する蒸留機構を提案する。
論文 参考訳(メタデータ) (2023-02-25T18:29:02Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。