論文の概要: Social and Ethical Risks Posed by General-Purpose LLMs for Settling Newcomers in Canada
- arxiv url: http://arxiv.org/abs/2407.20240v2
- Date: Thu, 1 Aug 2024 19:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 15:40:20.137129
- Title: Social and Ethical Risks Posed by General-Purpose LLMs for Settling Newcomers in Canada
- Title(参考訳): カナダにおける新参者の社会的・倫理的リスク
- Authors: Isar Nejadgholi, Maryam Molamohammadi, Samir Bakhtawar,
- Abstract要約: 汎用生成AIは、このニーズに対処するための新参者やサービス提供者の間で一般的なプラクティスになる可能性がある。
これらの道具は入植地に適したものではなく、移民や難民に有害な影響を及ぼす可能性がある。
われわれは、これらのツールが初心者にもたらすリスクを調査し、まずは、生成AIの未防衛使用に対して警告し、次に、AIリテラシープログラムの作成においてさらなる研究と開発のインセンティブを与える。
- 参考スコア(独自算出の注目度): 6.056177220363428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The non-profit settlement sector in Canada supports newcomers in achieving successful integration. This sector faces increasing operational pressures amidst rising immigration targets, which highlights a need for enhanced efficiency and innovation, potentially through reliable AI solutions. The ad-hoc use of general-purpose generative AI, such as ChatGPT, might become a common practice among newcomers and service providers to address this need. However, these tools are not tailored for the settlement domain and can have detrimental implications for immigrants and refugees. We explore the risks that these tools might pose on newcomers to first, warn against the unguarded use of generative AI, and second, to incentivize further research and development in creating AI literacy programs as well as customized LLMs that are aligned with the preferences of the impacted communities. Crucially, such technologies should be designed to integrate seamlessly into the existing workflow of the settlement sector, ensuring human oversight, trustworthiness, and accountability.
- Abstract(参考訳): カナダの非営利の決済部門は、新参者が統合を成功させるために支援している。
このセクターは、移民ターゲットの増加中の運用上のプレッシャーの増大に直面しており、信頼性の高いAIソリューションを通じて、効率性とイノベーションの強化の必要性を強調している。
ChatGPTのような汎用ジェネレーティブAIのアドホックな使用は、このニーズに対処するための新参者やサービス提供者の間で一般的な実践になるかもしれない。
しかし、これらの道具は入植地に適したものではなく、移民や難民に有害な影響を及ぼす可能性がある。
われわれは、これらのツールが初心者に悪影響を及ぼすリスクを探求し、生成AIの非防衛的使用に対して警告し、そして第二に、AIリテラシープログラムの作成におけるさらなる研究と開発を奨励し、影響したコミュニティの好みに合わせたカスタマイズされたLLMも検討する。
重要なことは、そのような技術は、決済部門の既存のワークフローにシームレスに統合し、人間の監視、信頼性、説明責任を保証するよう設計されるべきである。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Human-Centered AI Applications for Canada's Immigration Settlement Sector [5.5437761853813665]
本稿では,カナダの移民移住期におけるAIの可能性を強調する。
決済部門を信頼できるAIアプリケーションの主要な候補として強調することにより、移民を直接支援するユニークな能力を示す。
我々は、新参者の統合を促進する、人間中心で責任あるAIソリューションに対するビジョンを概説する。
論文 参考訳(メタデータ) (2024-09-02T20:52:11Z) - How Could Generative AI Support Compliance with the EU AI Act? A Review for Safe Automated Driving Perception [4.075971633195745]
ディープニューラルネットワーク(DNN)は、自動運転車の知覚機能の中心となっている。
EU(EU)人工知能(AI)法は、AIシステムの厳格な規範と標準を確立することによって、これらの課題に対処することを目的としている。
本稿では、DNNに基づく知覚システムに関するEU AI法から生じる要件を要約し、ADにおける既存の生成AIアプリケーションを体系的に分類する。
論文 参考訳(メタデータ) (2024-08-30T12:01:06Z) - LLM-Driven Robots Risk Enacting Discrimination, Violence, and Unlawful Actions [3.1247504290622214]
研究は、大規模言語モデルが現実世界のロボット実験や応用において差別的な結果や安全でない行動をもたらす可能性を懸念している。
高い評価を受けたLLMの識別基準と安全性基準のHRIに基づく評価を行う。
結果から, 組織的, 定期的, 包括的リスクアセスメントと, 成果改善のための保証の必要性が浮き彫りとなった。
論文 参考訳(メタデータ) (2024-06-13T05:31:49Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Socialized Learning: A Survey of the Paradigm Shift for Edge Intelligence in Networked Systems [62.252355444948904]
本稿では,エッジインテリジェンス(EI)と社会学習(SL)の統合に関する文献レビューの結果について述べる。
SLは、エージェントの協調能力と集団知性を増幅することを目的とした、社会的原則と行動に基づく学習パラダイムである。
ソーシャル化アーキテクチャ、ソーシャル化トレーニング、ソーシャル化推論の3つの統合コンポーネントについて詳しく検討し、その強みと弱点を分析した。
論文 参考訳(メタデータ) (2024-04-20T11:07:29Z) - Large language models in 6G security: challenges and opportunities [5.073128025996496]
我々は,潜在的敵の立場から,Large Language Models(LLMs)のセキュリティ面に注目した。
これには包括的脅威分類の開発が含まれ、様々な敵の行動を分類する。
また、我々の研究は、防衛チーム(ブルーチームとしても知られる)によるサイバーセキュリティ活動にLLMがどのように統合されるかに焦点を当てます。
論文 参考訳(メタデータ) (2024-03-18T20:39:34Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。