論文の概要: Security for Children in the Digital Society -- A Rights-based and
Research Ethics Approach
- arxiv url: http://arxiv.org/abs/2309.12340v2
- Date: Thu, 5 Oct 2023 10:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 21:21:20.355237
- Title: Security for Children in the Digital Society -- A Rights-based and
Research Ethics Approach
- Title(参考訳): デジタル社会における子どもの安全 -権利と研究倫理のアプローチ-
- Authors: Laura Schelenz, Ingrid Stapf, Jessica Heesen
- Abstract要約: このプロジェクトは、人工知能の開発のためのヨーロッパのフレームワークと、アルゴリズムによるオンラインコミュニケーションの過程で生じるセキュリティリスクから子どもを守ることに焦点を当てた、ドイツの状況にある。
このプロジェクトは、子どもの安全に関する質問に対する子どもの権利に関するアプローチをオンラインで開発すると同時に、児童に対するサイバーグルームや性的暴力などのオンライン被害について、子どもたちと研究を行うための研究倫理的アプローチも開発している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this position paper, we present initial perspectives and research results
from the project "SIKID - Security for Children in the Digital World." The
project is situated in a German context with a focus on European frameworks for
the development of Artificial Intelligence and the protection of children from
security risks arising in the course of algorithm-mediated online
communication. The project strengthens networks of relevant stakeholders,
explores regulatory measures and informs policy makers, and develops a
children's rights approach to questions of security for children online while
also developing a research ethics approach for conducting research with
children on online harms such as cybergrooming and sexual violence against
children.
- Abstract(参考訳): 本稿では,デジタルワールドにおける子どもの安全に関するプロジェクト「SIKID-Security for Children in the Digital World」の初歩的な視点と研究成果について述べる。
このプロジェクトは、人工知能の開発のためのヨーロッパのフレームワークと、アルゴリズムによるオンラインコミュニケーションの過程で生じるセキュリティリスクから子どもを守ることに焦点を当てた、ドイツの状況にある。
このプロジェクトは、関連する利害関係者のネットワークを強化し、規制措置を探求し、政策立案者に通知し、子どもの安全問題に対する子どもの権利アプローチをオンラインで開発するとともに、児童に対するサイバーグルームや性的暴力などのオンライン被害について子供と研究を行うための研究倫理的アプローチを開発する。
関連論文リスト
- A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - A safety risk assessment framework for children's online safety based on
a novel safety weakness assessment approach [0.43512163406552007]
本稿では,成長するデジタルランドスケープの文脈において,子どものオンライン安全の問題に対処する。
本研究では,子どものオンライン安全に焦点をあてた安全リスク評価手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T08:50:15Z) - On the conformance of Android applications with children's data
protection regulations and safeguarding guidelines [3.8029070240258687]
子ども向けのアプリでさえ、法律やガイダンスに従わない。
このコンプライアンスの欠如は、身体的または精神的な危害を引き起こす道を作るのに寄与する。
論文 参考訳(メタデータ) (2023-05-15T09:46:56Z) - Beyond the Safeguards: Exploring the Security Risks of ChatGPT [3.1981440103815717]
大きな言語モデル(LLM)の人気が高まると、安全性、セキュリティリスク、倫理的影響に対する懸念が高まっている。
本稿では、悪意のあるテキストやコード生成、プライベートデータ開示、不正なサービス、情報収集、非倫理的コンテンツの生成など、ChatGPTに関連するさまざまなセキュリティリスクの概要について述べる。
論文 参考訳(メタデータ) (2023-05-13T21:01:14Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Imagining new futures beyond predictive systems in child welfare: A
qualitative study with impacted stakeholders [89.6319385008397]
児童福祉システムに影響を及ぼした利害関係者35名を対象に,7つのデザインワークショップを開催した。
対象者は,現在のPRMが児童福祉における既存の問題を持続的又は悪化させることを懸念した。
参加者は、データとデータ駆動ツールを使って、影響のあるコミュニティをより良くサポートする方法を提案した。
論文 参考訳(メタデータ) (2022-05-18T13:49:55Z) - Understanding parents' perceptions of children's cybersecurity awareness
in Norway [3.590867023672793]
ノルウェー在住の両親25人と10歳から15歳までの子どもを対象に調査を行った。
結果は、親の視点からの子供に対するサイバーセキュリティの認識の必要性のリスト、子供のための学習リソースのリスト、そして家庭におけるサイバーセキュリティを確保するための親にとっての課題のリストを含む。
将来の研究は、サイバーセキュリティのリスク、ニーズ、解決策に対する子どもや両親の認識に寄与するサイバーセキュリティ理論と実践を定義することに焦点を当てるべきである。
論文 参考訳(メタデータ) (2021-08-05T10:42:49Z) - Interactive Storytelling for Children: A Case-study of Design and
Development Considerations for Ethical Conversational AI [0.20999222360659603]
会話人工知能(CAI)システムと知能パーソナルアシスタント(IPA)は、私たちの生活の中でユビキタスになりつつある。
本稿では,技術開発の特定の事例における社会的文脈を考察し,文献内からの議論によって裏付け,支持された。
CAIを通じたストーリーテリングの倫理に開発者やステークホルダーと関わるさらなる研究は、緊急性の問題として強調される。
論文 参考訳(メタデータ) (2021-07-20T15:11:45Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。