論文の概要: Designing Indicators to Combat Fake Media
- arxiv url: http://arxiv.org/abs/2010.00544v1
- Date: Thu, 1 Oct 2020 16:58:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 11:58:55.397728
- Title: Designing Indicators to Combat Fake Media
- Title(参考訳): フェイクメディアを消費する指標の設計
- Authors: Imani N. Sherman, Elissa M. Redmiles, Jack W. Stokes
- Abstract要約: 本研究は、ユーザーが偽ビデオを特定するのに役立つ証明指標を設計し、研究する。
まず、ユーザーに対して、異なる誤情報モードでの経験についてインタビューする。
そこで我々は,フェイクビデオインジケータを開発し設計するための参加型設計研究を行った。
- 参考スコア(独自算出の注目度): 24.257090478689815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growth of misinformation technology necessitates the need to identify
fake videos. One approach to preventing the consumption of these fake videos is
provenance which allows the user to authenticate media content to its original
source. This research designs and investigates the use of provenance indicators
to help users identify fake videos. We first interview users regarding their
experiences with different misinformation modes (text, image, video) to guide
the design of indicators within users' existing perspectives. Then, we conduct
a participatory design study to develop and design fake video indicators.
Finally, we evaluate participant-designed indicators via both expert
evaluations and quantitative surveys with a large group of end-users. Our
results provide concrete design guidelines for the emerging issue of fake
videos. Our findings also raise concerns regarding users' tendency to
overgeneralize from misinformation warning messages, suggesting the need for
further research on warning design in the ongoing fight against misinformation.
- Abstract(参考訳): 偽情報技術の成長は、フェイクビデオを識別する必要がある。
偽ビデオの消費を防ぐためのアプローチの1つは、ユーザーが元のソースにメディアコンテンツを認証できる証明である。
本研究は、ユーザーが偽ビデオを特定するのに役立つ証明指標を設計し、研究する。
まず,さまざまな誤情報モード(テキスト,画像,ビデオ)を用いたユーザ体験についてインタビューを行い,既存の視点におけるインジケータの設計を指導する。
次に,偽のビデオインジケータの開発と設計のために参加型デザイン研究を行う。
最後に,多数のエンドユーザーを対象に,専門家評価と定量的調査による参加者設計指標の評価を行った。
本結果は,フェイクビデオの新たな問題に対する具体的な設計ガイドラインを提供する。
また,誤情報警告メッセージから過度に一般化する傾向が懸念され,現在進行中の誤情報対策における警告設計のさらなる研究の必要性が示唆された。
関連論文リスト
- How Unique is Whose Web Browser? The role of demographics in browser fingerprinting among US users [50.699390248359265]
ブラウザのフィンガープリントは、クッキーを使わずとも、Web上のユーザを識別し、追跡するために利用できる。
この技術と結果として生じるプライバシーリスクは10年以上にわたって研究されてきた。
我々は、さらなる研究を可能にするファースト・オブ・ザ・キンド・データセットを提供する。
論文 参考訳(メタデータ) (2024-10-09T14:51:58Z) - What Matters in Explanations: Towards Explainable Fake Review Detection Focusing on Transformers [45.55363754551388]
顧客のレビューとフィードバックは、Amazon、Zalando、eBayなどのEコマースプラットフォームにおいて重要な役割を果たす。
売り手が偽レビューやスパムレビューを投稿し、潜在的な顧客を欺き、製品に関する意見を操作しているという懸念が有力である。
本稿では,偽レビューを高精度に検出するための説明可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-24T13:26:02Z) - The Tug-of-War Between Deepfake Generation and Detection [4.62070292702111]
マルチモーダル生成モデルは急速に進化しており、現実的なビデオやオーディオの生成が急増している。
ディープフェイクビデオは、個人を説得力を持って偽造することができるが、悪用の可能性から特に注目を集めている。
本研究では,ディープフェイク映像の生成と検出の両面を考察し,効果的な対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-08T17:49:41Z) - Viblio: Introducing Credibility Signals and Citations to Video-Sharing
Platforms [8.832571289776256]
Viblioは、YouTubeユーザーが参加者のニーズに基づいてビデオを見ながら、引用を閲覧、追加できるプロトタイプシステムである。
12人の被験者による評価から、ビブリオはビデオの信頼性を評価する過程において直感的で有用であることが判明した。
論文 参考訳(メタデータ) (2024-02-27T05:21:39Z) - A Data-Driven Approach for Finding Requirements Relevant Feedback from
TikTok and YouTube [37.87427796354001]
この研究は、ビデオコンテンツに焦点を当てた2つの広く使われているソーシャルメディアプラットフォームであるTikTokとYouTubeの可能性を掘り下げるものだ。
各種産業における20種類の人気商品の6276件のビデオから,音声・ビジュアルテキスト,メタデータ(説明・タイトル)を解析し,ユーザフィードバックの源泉としてビデオの展望を評価した。
製品評価(機能、設計、パフォーマンス)、バグレポート、使用法チュートリアルがビデオから永続的なテーマであることが分かりました。
論文 参考訳(メタデータ) (2023-05-02T21:47:06Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Show Me What I Like: Detecting User-Specific Video Highlights Using Content-Based Multi-Head Attention [52.84233165201391]
そこで本稿では,従来視聴したビデオに表示されていたハイライトクリップに基づいて,対象ビデオの個別化ハイライトを検出する手法を提案する。
本手法は,対象物と人的活動の事前学習機能を用いて,好むクリップの内容と対象ビデオの両方を明示的に活用する。
論文 参考訳(メタデータ) (2022-07-18T02:32:48Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - What's wrong with this video? Comparing Explainers for Deepfake
Detection [13.089182408360221]
Deepfakesは、個人の顔が別の顔に置き換えられたコンピュータ操作されたビデオです。
本研究では,実映像と偽動画のラベル付けを説明するために,ホワイトボックス,ブラックボックス,モデル固有の手法を開発し,拡張し,比較する。
特に,shap,gradcam,self-attentionモデルを用いて,高効率ネットに基づく最先端検出器の予測を説明する。
論文 参考訳(メタデータ) (2021-05-12T18:44:39Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z) - Learning Person Re-identification Models from Videos with Weak
Supervision [53.53606308822736]
本稿では、監督の弱いビデオから人物再識別モデルを学ぶ問題について紹介する。
このようなビデオレベルラベルを用いた人物再識別のための多段階注意学習フレームワークを提案する。
注意重みは、ビデオ中の人物追跡レットではなく、すべての人物画像に基づいて得られるため、学習したモデルはノイズの多いアノテーションの影響を受けにくくなる。
論文 参考訳(メタデータ) (2020-07-21T07:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。