論文の概要: A Transformer-Based Cross-Platform Analysis of Public Discourse on the 15-Minute City Paradigm
- arxiv url: http://arxiv.org/abs/2509.11443v1
- Date: Sun, 14 Sep 2025 21:36:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.0845
- Title: A Transformer-Based Cross-Platform Analysis of Public Discourse on the 15-Minute City Paradigm
- Title(参考訳): 変圧器を用いた15分間の都市パラダイムにおける公共談話のクロスプラットフォーム分析
- Authors: Gaurab Chhetri, Darrell Anderson, Boniphace Kutela, Subasish Das,
- Abstract要約: 本研究では、Twitter、Reddit、およびニュースメディアで15分間の都市概念に関する世論のマルチプラットフォーム感情分析を行った。
パイプラインは長文および短文のテキストを処理し、一貫性のあるアノテーションをサポートし、再現可能な評価を可能にする。
- 参考スコア(独自算出の注目度): 0.8874671354802572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents the first multi-platform sentiment analysis of public opinion on the 15-minute city concept across Twitter, Reddit, and news media. Using compressed transformer models and Llama-3-8B for annotation, we classify sentiment across heterogeneous text domains. Our pipeline handles long-form and short-form text, supports consistent annotation, and enables reproducible evaluation. We benchmark five models (DistilRoBERTa, DistilBERT, MiniLM, ELECTRA, TinyBERT) using stratified 5-fold cross-validation, reporting F1-score, AUC, and training time. DistilRoBERTa achieved the highest F1 (0.8292), TinyBERT the best efficiency, and MiniLM the best cross-platform consistency. Results show News data yields inflated performance due to class imbalance, Reddit suffers from summarization loss, and Twitter offers moderate challenge. Compressed models perform competitively, challenging assumptions that larger models are necessary. We identify platform-specific trade-offs and propose directions for scalable, real-world sentiment classification in urban planning discourse.
- Abstract(参考訳): 本研究では、Twitter、Reddit、およびニュースメディアで15分間の都市概念に関する世論のマルチプラットフォーム感情分析を行った。
圧縮トランスモデルとLlama-3-8Bをアノテーションとして用いて、異種テキスト領域にまたがる感情を分類する。
パイプラインは長文および短文のテキストを処理し、一貫性のあるアノテーションをサポートし、再現可能な評価を可能にする。
階層化された5倍のクロスバリデーション,F1スコア,AUC,トレーニング時間を用いて,DistilRoBERTa,DistilBERT,MiniLM,ELECTRA,TinyBERTの5モデルをベンチマークした。
DistilRoBERTaは最高F1(0.8292)、TinyBERTは最高効率、MiniLMは最高クロスプラットフォーム一貫性を達成した。
結果によると、Newsのデータは、クラス不均衡によるパフォーマンスの膨張、Redditの要約損失、Twitterの適度な課題などが示されている。
圧縮モデルは、より大きなモデルが必要であるという、競争力のある挑戦的な仮定を実行する。
プラットフォーム固有のトレードオフを特定し,都市計画談話におけるスケーラブルで現実的な感情分類の方向性を提案する。
関連論文リスト
- Performance Evaluation of Emotion Classification in Japanese Using RoBERTa and DeBERTa [0.0]
ソーシャルメディアモニタリングと顧客フィードバック分析は、日本語テキストの正確な感情検出を必要とする。
本研究は,日本語文中の8つのプリュッチク感情の有無を予測するための高精度モデルを構築することを目的とする。
論文 参考訳(メタデータ) (2025-04-22T07:51:37Z) - Short-video Propagation Influence Rating: A New Real-world Dataset and A New Large Graph Model [66.8976337702408]
クロスプラットフォームのショートビデオデータセットには、117,720の動画、381,926のサンプル、中国最大の5つのプラットフォームにわたる535のトピックが含まれている。
大グラフモデル(LGM)NetGPTは、多種多様なグラフ構造データを強力な推論能力とLarge Language Models(LLM)の知識で橋渡しすることができる
我々のNetGPTは,短ビデオ伝搬グラフの理解と解析が可能であり,短ビデオの長期伝搬の影響を予測できる。
論文 参考訳(メタデータ) (2025-03-31T05:53:15Z) - RideKE: Leveraging Low-Resource, User-Generated Twitter Content for Sentiment and Emotion Detection in Kenyan Code-Switched Dataset [4.142287865325998]
我々は、ケニアのコード変更データを分析し、感情分類と感情分類のための4つの最先端トランスフォーマー(SOTA)モデルを評価する。
感情分析では、XLM-Rは最高精度(69.2%)、F1スコア(66.1%)、XLM-R半教師(67.2%、64.1%)を達成する。
感情分析では、DistilBERTは精度59.8%、F1は31%、mBERTは半監督的(精度59%、F1は26.5)である。
論文 参考訳(メタデータ) (2025-02-10T06:18:07Z) - An Effective, Robust and Fairness-aware Hate Speech Detection Framework [2.9927562390637394]
既存のヘイトスピーチ検出手法には、いくつかの面で制限がある。
我々は,データ拡張,公平性,不確実性を考慮した新しいフレームワークを設計する。
本モデルは,攻撃シナリオと攻撃シナリオの両方で,最先端の8つの手法より優れている。
論文 参考訳(メタデータ) (2024-09-25T07:01:51Z) - TextSquare: Scaling up Text-Centric Visual Instruction Tuning [62.878378882175284]
大規模かつ高品質な命令チューニングデータセットSquare-10Mを作成するための新しいアプローチを提案する。
われわれのモデルであるTextSquareは、最先端のText中心のMLLMをはるかに上回っている。
さらに、GPT4VやGeminiといったトップクラスのモデルでは、テキスト中心のベンチマークを10つ中6つで上回っている。
論文 参考訳(メタデータ) (2024-04-19T11:38:08Z) - Information Redundancy and Biases in Public Document Information
Extraction Benchmarks [0.0]
公開ベンチマークで微調整された場合、KIEモデルの優れたパフォーマンスにもかかわらず、十分な文書アノテーションが欠如している複雑な実生活のユースケースを一般化するのに依然として苦労している。
我々の研究は、SROIEやFUNSDなどのKIE標準ベンチマークは、トレーニングとテスト文書の間に大きな類似点があり、モデルの一般化をよりよく評価するために調整可能であることを強調した。
論文 参考訳(メタデータ) (2023-04-28T15:48:26Z) - Towards Efficient NLP: A Standard Evaluation and A Strong Baseline [55.29756535335831]
本研究は, ELUE (Efficient Language Understanding Evaluation) と標準評価, 効率的なNLPモデルのための公開リーダボードを提案する。
ベンチマークとともに、強いベースラインであるElasticBERTの事前トレーニングとリリースも行います。
論文 参考訳(メタデータ) (2021-10-13T21:17:15Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - Students Need More Attention: BERT-based AttentionModel for Small Data
with Application to AutomaticPatient Message Triage [65.7062363323781]
BioBERT (Bidirectional Representations from Transformers for Biomedical Text Mining) に基づく新しいフレームワークを提案する。
LESA-BERTと呼ぶBERTの各層にラベル埋め込みを導入し、(ii)LESA-BERTを小さな変種に蒸留することにより、小さなデータセットで作業する際のオーバーフィッティングとモデルサイズを低減することを目指す。
アプリケーションとして,本フレームワークを用いて,患者ポータルメッセージトリアージのモデルを構築し,メッセージの緊急度を非緊急度,中度度,緊急度という3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2020-06-22T03:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。