論文の概要: A Taxonomy-Driven Case Study of Australian Web Resources Against Technology-Facilitated Abuse
- arxiv url: http://arxiv.org/abs/2512.04104v1
- Date: Fri, 28 Nov 2025 01:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.766842
- Title: A Taxonomy-Driven Case Study of Australian Web Resources Against Technology-Facilitated Abuse
- Title(参考訳): オーストラリアにおけるWebリソースの分類学的研究 : 技術面での悪用を例として
- Authors: Dipankar Srirag, Xiaolin Cen, Rahat Masood, Aditya Joshi,
- Abstract要約: TFA(Technology-Facilitated Abuse)は、デジタルシステムが個人を嫌がらせ、監視し、脅し、制御するために使用される、広範かつ急速に進化する行動の集合を含んでいる。
本稿では、ピアレビュー研究の構造化レビューにおいて、TFAの統一された文献由来の分類に寄与する。
これはオーストラリアで最初の大規模、分類学的に整合した機関のウェブリソースの監査である。
- 参考スコア(独自算出の注目度): 7.412243627099252
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Technology-Facilitated Abuse (TFA) encompasses a broad and rapidly evolving set of behaviours in which digital systems are used to harass, monitor, threaten, or control individuals. Although prior research has documented many forms of TFA, there is no consolidated framework for understanding how abuse types, prevention measures, detection mechanisms, and support pathways relate across the abuse life cycle. This paper contributes a unified, literature-derived taxonomy of TFA grounded in a structured review of peer-reviewed studies, and the first large-scale, taxonomy-aligned audit of institutional web resources in Australia. We crawl 306 government, non-government, and service-provider domains, obtaining 52,605 pages, and classify using zero-shot topic models to map web content onto our taxonomy. An emotion and readability analyses reveal how institutions frame TFA and how accessible their guidance is to the public. Our findings show that institutional websites cover only a narrow subset of harms emphasised in the literature, with approximately 70% of all abuse labelled pages focused on harassment, comments abuse, or sexual abuse, while less than 1% address covert surveillance, economic abuse, or long-term controlling behaviours. Support pathways are similarly limited, with most resources centred on digital information hubs rather than counselling or community-based services. Readability analysis further shows that much of this content is written at late secondary or early tertiary reading levels, which may be inaccessible to a substantial portion of at-risk users. By highlighting strengths and gaps in Australia's support for TFA, our taxonomy and audit method provide a scalable basis for evaluating institutional communication, improving survivor resources, and guiding safer digital ecosystems. The taxonomy serves as a foundation for analyses in national contexts to foster TFA awareness.
- Abstract(参考訳): TFA(Technology-Facilitated Abuse)は、デジタルシステムが個人を嫌がらせ、監視し、脅し、制御するために使用される、広範かつ急速に進化する行動の集合を含んでいる。
以前の研究では、多くの種類のTFAを文書化してきたが、乱用タイプ、予防対策、検出メカニズム、サポートパスが乱用ライフサイクル全体でどのように関係しているかを理解するための統合された枠組みは存在しない。
本論文は、ピアレビュー研究の構造的レビューに基づくTFAの統一された文献由来の分類学と、オーストラリアにおける組織的Webリソースの大規模かつ分類に整合した監査に貢献する。
306の政府、非政府、およびサービス提供ドメインをクロールし、52,605ページを取得し、ゼロショットトピックモデルを使用してWebコンテンツを分類にマップします。
感情と可読性の分析は、組織がどのようにTFAをフレーム化し、そのガイダンスが一般にどの程度アクセス可能かを明らかにする。
調査の結果, 施設のウェブサイトは, ハラスメント, コメント虐待, 性的虐待に焦点をあてたページの約70%, 1%未満のアドレスが監視, 経済的虐待, 長期管理行動に重点を置いていることがわかった。
サポートパスも同じように制限されており、ほとんどのリソースはカウンセリングやコミュニティベースのサービスではなく、デジタル情報ハブに集中している。
可読性分析により、これらのコンテンツの多くは後期中等級か前期第三級の読み出しレベルで書かれており、これはリスクの高いユーザーのかなりの部分にアクセスできない可能性があることを示している。
オーストラリアのTFA支援の強みとギャップを強調することで、我々の分類学と監査法は、制度的なコミュニケーションの評価、生存資源の改善、より安全なデジタルエコシステムの導出のためのスケーラブルな基盤を提供する。
分類学は、TFAの認識を促進するための国家的文脈の分析の基盤となっている。
関連論文リスト
- Stop DDoS Attacking the Research Community with AI-Generated Survey Papers [27.03595915182805]
我々は、膨大な量のAI生成調査論文を研究コミュニティにアップロードするのをやめなければならないと論じている。
私たちは、AI利用における専門家の監視と透明性の回復を呼びかけています。
調査の完全性を守ることはもはやオプションではなく、研究コミュニティにとって必須であることを示します。
論文 参考訳(メタデータ) (2025-10-09T05:55:13Z) - SoK: Large Language Model Copyright Auditing via Fingerprinting [69.14570598973195]
既存の手法をホワイトボックスとブラックボックスのアプローチに分類する統一的な枠組みと形式的な分類法を導入する。
現実的な展開シナリオ下でのLDMフィンガープリント評価のための最初の体系的ベンチマークであるLeaFBenchを提案する。
論文 参考訳(メタデータ) (2025-08-27T12:56:57Z) - A Unifying Bias-aware Multidisciplinary Framework for Investigating Socio-Technical Issues [6.307051347179095]
本稿では,社会科学(SS)とコンピュータ科学(CS)の分野を統合することを目的とする。
社会科学と機械学習(ML)の様々な分析手法を構造化シーケンスに適用し、調査対象の特定と定量化の手法に到達した。
このフレームワークの中核的な特徴は、バイアスが発生する場所を強調し、それを緩和するためのステップを提案することである。
筆者らは,英国におけるデジタル化社会住宅サービスへのアクセス・利用において,少数民族(ME)コミュニティが直面したオンライン被害の多分野調査に利用した。
論文 参考訳(メタデータ) (2025-05-06T14:52:04Z) - Understanding and Mitigating Risks of Generative AI in Financial Services [22.673239064487667]
我々は、金融サービスドメインに特有のAIコンテンツ安全性の考察を強調し、関連するAIコンテンツリスク分類を概説することを目指している。
我々は,既存のオープンソース技術ガードレールソリューションがこの分類をレッドチーム活動を通じて収集されたデータに基づいて評価することによってどのようにカバーするかを評価する。
論文 参考訳(メタデータ) (2025-04-25T16:55:51Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Technological Factors Influencing Videoconferencing and Zoom Fatigue [60.34717956708476]
本稿では,ズーム疲労 (ZF) あるいはより一般的にビデオ会議疲労 (VCF) に寄与することが証明された,あるいは証明された技術的要因を理解するための概念的多次元的アプローチを提案する。
この論文は、一部のメディアがZoomの疲労とは何か、どのように避けられるのかという議論を始めており、またこの話題に対処する科学論文の中には、仮説的であり、科学的証拠に十分に根ざした仮定が含まれているという事実に動機づけられている。
論文 参考訳(メタデータ) (2022-02-03T18:02:59Z) - The User behind the Abuse: A Position on Ethics and Explainability [25.791014642037585]
ユーザとオンラインコミュニティのモデリングが乱用検知に果たす役割について論じる。
その後、ユーザー情報とコミュニティ情報を取り入れる倫理的課題を探求します。
説明可能な方法が示すべき特性について提案する。
論文 参考訳(メタデータ) (2021-03-31T16:20:37Z) - Towards Ethics by Design in Online Abusive Content Detection [7.163723138100273]
研究の成果は、ヘイトスピーチの検出、毒性、サイバーいじめなど、関連するいくつかのサブエリアに広がっている。
倫理的問題を先導し、2段階のプロセスとして統一されたフレームワークを提案する。
新たなフレームワークは、Ethics by Designの原則によってガイドされており、より正確で信頼性の高いモデルを構築するためのステップである。
論文 参考訳(メタデータ) (2020-10-28T13:10:24Z) - Predicting Themes within Complex Unstructured Texts: A Case Study on
Safeguarding Reports [66.39150945184683]
本稿では,教師付き分類手法を用いた保護レポートにおいて,主テーマの自動識別の問題に焦点をあてる。
この結果から,ラベル付きデータに制限のある複雑なタスクであっても,深層学習モデルが対象知識の振る舞いをシミュレートする可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T19:48:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。