論文の概要: Civil Society in the Loop: Feedback-Driven Adaptation of (L)LM-Assisted Classification in an Open-Source Telegram Monitoring Tool
- arxiv url: http://arxiv.org/abs/2507.06734v1
- Date: Wed, 09 Jul 2025 10:46:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.555017
- Title: Civil Society in the Loop: Feedback-Driven Adaptation of (L)LM-Assisted Classification in an Open-Source Telegram Monitoring Tool
- Title(参考訳): ループにおける市民社会:オープンソースのテレグラムモニタリングツールにおける(L)LM支援分類のフィードバック駆動適応
- Authors: Milena Pustet, Elisabeth Steffen, Helena Mihaljević, Grischa Stanjek, Yannis Illies,
- Abstract要約: AIツールは、有害なコンテンツを大規模に検出し、監視するのに役立つ。
AIモデルとソーシャルメディア監視インフラストラクチャをシームレスに統合するオープンソースツールはほとんどない。
この研究は、Telegram上での反民主運動のAI支援オープンソースの監視ツールにCSOが有意義に関わり得る方法を探る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The role of civil society organizations (CSOs) in monitoring harmful online content is increasingly crucial, especially as platform providers reduce their investment in content moderation. AI tools can assist in detecting and monitoring harmful content at scale. However, few open-source tools offer seamless integration of AI models and social media monitoring infrastructures. Given their thematic expertise and contextual understanding of harmful content, CSOs should be active partners in co-developing technological tools, providing feedback, helping to improve models, and ensuring alignment with stakeholder needs and values, rather than as passive 'consumers'. However, collaborations between the open source community, academia, and civil society remain rare, and research on harmful content seldom translates into practical tools usable by civil society actors. This work in progress explores how CSOs can be meaningfully involved in an AI-assisted open-source monitoring tool of anti-democratic movements on Telegram, which we are currently developing in collaboration with CSO stakeholders.
- Abstract(参考訳): 有害なオンラインコンテンツを監視する上での市民社会組織(CSO)の役割は、特にプラットフォームプロバイダがコンテンツモデレーションへの投資を減らし、ますます重要になっている。
AIツールは、有害なコンテンツを大規模に検出し、監視するのに役立つ。
しかし、AIモデルとソーシャルメディア監視インフラストラクチャのシームレスな統合を提供するオープンソースツールはほとんどない。
有害なコンテンツのテーマ的専門知識と文脈的理解を踏まえると、CSOは、"消費者"としてではなく、技術ツールの共同開発、フィードバックの提供、モデルの改善、利害関係者のニーズと価値との整合性の確保において、積極的なパートナーとなるべきです。
しかし, オープンソースコミュニティ, アカデミック, 市民社会の連携は依然として稀であり, 有害なコンテンツの研究は, 市民社会のアクターが利用できる実用ツールにはほとんど変換されない。
この作業は、現在CSO利害関係者と共同で開発中のTelegram上での、AI支援による反民主的動きのオープンソース監視ツールに、CSOが有意義に関与する可能性について検討している。
関連論文リスト
- The Dead Internet Theory: A Survey on Artificial Interactions and the Future of Social Media [1.8111304638456796]
デッド・インターネット理論 (Dead Internet Theory, DIT) は、今日のインターネットの多くは非人間活動、AI生成コンテンツ、企業アジェンダに支配されていることを示唆している。
本研究は,ソーシャルメディアプラットフォームにおけるDITの起源,コアクレーム,およびDITの意義を考察し,その関連性を強調した。
論文 参考訳(メタデータ) (2025-01-06T18:18:05Z) - Combining Threat Intelligence with IoT Scanning to Predict Cyber Attack [0.0]
ハッカーやハックティビストグループを含む悪意ある俳優は、しばしば「ダークウェブ」を通じてイデオロギー的コンテンツを広め、活動を調整する。
本稿では,ダークウェブデータを体系的に収集,解析,可視化するために設計された,新たな予測脅威インテリジェンスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-26T23:00:51Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Socialized Learning: A Survey of the Paradigm Shift for Edge Intelligence in Networked Systems [62.252355444948904]
本稿では,エッジインテリジェンス(EI)と社会学習(SL)の統合に関する文献レビューの結果について述べる。
SLは、エージェントの協調能力と集団知性を増幅することを目的とした、社会的原則と行動に基づく学習パラダイムである。
ソーシャル化アーキテクチャ、ソーシャル化トレーニング、ソーシャル化推論の3つの統合コンポーネントについて詳しく検討し、その強みと弱点を分析した。
論文 参考訳(メタデータ) (2024-04-20T11:07:29Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Challenging Social Media Threats using Collective Well-being Aware
Recommendation Algorithms and an Educational Virtual Companion [5.25346752356752]
ソーシャルメディア仮想コンパニオン(Social Media Virtual Companion)は、自動処理と専門家の介入とガイダンスを組み合わせる。
我々は、コンパニオンの教育的に管理されているソーシャルメディアコミュニティにおいて、専門家や教育者に重点を置いている。
コンパニオンの構成要素の演奏に関する予備的な結果と、教育的・心理的基礎原理の研究について述べる。
論文 参考訳(メタデータ) (2021-01-25T15:58:18Z) - Monitoring Trust in Human-Machine Interactions for Public Sector
Applications [0.0]
本研究は,AIを用いたヒューマン・マシーンインタラクション(HMI)を用いた心理生理学的センサーの能力と,人間に対する信頼度を検出する尺度に対処する。
脳波とGSRデータを分析する上での課題は、測定値に多数の変数があるため、大量のトレーニングデータを必要とすることである。
我々は,HMIシステムの信頼性の監視・向上に必要なデータ量を削減するプロセスとして,Local Interpretable Model-Agnostic Explanations (LIME)モデルを用いた。
論文 参考訳(メタデータ) (2020-10-16T03:59:28Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。