論文の概要: White Paper -- Objectionable Online Content: What is harmful, to whom,
and why
- arxiv url: http://arxiv.org/abs/2104.03903v1
- Date: Wed, 27 Jan 2021 02:34:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 19:40:47.365816
- Title: White Paper -- Objectionable Online Content: What is harmful, to whom,
and why
- Title(参考訳): ホワイトペーパー -- 不快なオンラインコンテンツ: 有害なもの、誰に、そしてなぜ
- Authors: Thamar Solorio, Mahsa Shafaei, Christos Smailis, Brad J. Bushman,
Douglas A. Gentile, Erica Scharrer, Laura Stockdale, Ioannis Kakadiaris
- Abstract要約: このホワイトペーパーは、ヒューストン大学(UH)研究チームにおける不快な内容に関する著者の議論を要約している。
対象コンテンツを検出するための自動マルチモーダルアプローチの研究を支援するために、オンラインビデオの広範なリポジトリを構築するための戦略を概説する。
- 参考スコア(独自算出の注目度): 6.55104879972868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This White Paper summarizes the authors' discussion regarding objectionable
content for the University of Houston (UH) Research Team to outline a strategy
for building an extensive repository of online videos to support research into
automated multimodal approaches to detect objectionable content. The workshop
focused on defining what harmful content is, to whom it is harmful, and why it
is harmful.
- Abstract(参考訳): このホワイトペーパーは、ヒューストン大学研究チーム(UH)の反対コンテンツに関する著者の議論を要約し、反対コンテンツを検出するための自動マルチモーダルアプローチの研究を支援するために、オンラインビデオの広範なリポジトリを構築するための戦略を概説する。
ワークショップは、有害コンテンツが何で、誰に有害で、なぜ有害かを定義することに焦点を当てた。
関連論文リスト
- StopHC: A Harmful Content Detection and Mitigation Architecture for Social Media Platforms [0.46289929100614996]
textscStopHCはソーシャルメディアプラットフォームにとって有害なコンテンツ検出および緩和アーキテクチャである。
私たちのソリューションには、2つのモジュールが含まれています。1つは有害なコンテンツ検出にディープニューラルネットワークアーキテクチャを使用し、もう1つは有害なノードをブロックし、有害なコンテンツの拡散を止めるためにネットワーク免疫アルゴリズムを使用しています。
論文 参考訳(メタデータ) (2024-11-09T10:23:22Z) - Harmful YouTube Video Detection: A Taxonomy of Online Harm and MLLMs as Alternative Annotators [0.0]
本研究は,映像コンテンツ中の害を検知するための計測方法と手法の進歩である。
我々は、ビデオプラットフォーム上でのオンライン被害に対する包括的分類を開発し、それを情報、憎悪、ハラスメント、予測、クリックベイト、性的被害、身体的被害の6つのカテゴリに分類する。
14枚の画像フレーム,1本のサムネイル,テキストメタデータを用いて,19,422本のYouTube動画を分析し,クラウドワーカー(Mturk)とGPT-4-Turboの精度を比較した。
論文 参考訳(メタデータ) (2024-11-06T23:48:30Z) - Harmful Suicide Content Detection [35.0823928978658]
本研究では,オンライン自殺内容の有害なレベルを5つに分類するための有害な自殺内容検出タスクを導入する。
コントリビューションには,新たな検出タスクの提案,専門家アノテーションを用いたマルチモーダル韓国ベンチマーク,違法かつ有害なコンテンツの検出にLLMを用いた戦略の提案などが含まれている。
論文 参考訳(メタデータ) (2024-06-03T03:43:44Z) - Concept Arithmetics for Circumventing Concept Inhibition in Diffusion Models [58.065255696601604]
拡散モデルの合成特性を使い、単一の画像生成において複数のプロンプトを利用することができる。
本論では, 画像生成の可能なすべてのアプローチを, 相手が適用可能な拡散モデルで検討することが重要であると論じる。
論文 参考訳(メタデータ) (2024-04-21T16:35:16Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Mitigating Covertly Unsafe Text within Natural Language Systems [55.26364166702625]
制御されていないシステムは、怪我や致命的な結果につながるレコメンデーションを生成する。
本稿では,身体的危害につながる可能性のあるテキストのタイプを識別し,特に未発見のカテゴリを確立する。
論文 参考訳(メタデータ) (2022-10-17T17:59:49Z) - Handling and Presenting Harmful Text [10.359716317114815]
テキストデータは深刻な危害のリスクを引き起こす可能性がある。
これらの害は、誤情報、ヘイトスピーチ、人種的ステレオタイプという3つの軸に沿って分類することができる。
NLPでは、テキストの害がどのように扱われ、提示され、議論されるべきかという未解決の問題である。
我々は,テキスト害の研究を反映するリソースであるtextscHarmCheck を導入し,実践的なアドバイスを提供する。
論文 参考訳(メタデータ) (2022-04-29T17:34:12Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z) - White Paper: Challenges and Considerations for the Creation of a Large
Labelled Repository of Online Videos with Questionable Content [49.4838932200676]
本稿では,問題のあるコンテンツに注釈付けされたオンラインビデオの広範なリポジトリを構築するための批判的考察について要約する。
主な議論ポイントは、1)AIコミュニティにとって価値のあるリポジトリをもたらす適切なラベルの種類、2)コレクションとアノテーションプロセスの設計方法、およびその潜在的な影響を最大化するためにコーパスの配布方法、3)アノテータに対するトラウマのリスクを低減するために私たちが取るべきアクションである。
論文 参考訳(メタデータ) (2021-01-25T16:19:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。