論文の概要: Digital Gatekeepers: Exploring Large Language Model's Role in Immigration Decisions
- arxiv url: http://arxiv.org/abs/2506.21574v1
- Date: Sun, 15 Jun 2025 18:04:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.288247
- Title: Digital Gatekeepers: Exploring Large Language Model's Role in Immigration Decisions
- Title(参考訳): デジタルゲートキーパー:移民決定における大規模言語モデルの役割を探る
- Authors: Yicheng Mao, Yang Zhao,
- Abstract要約: 本研究では, GPT-3.5 や GPT-4 などの大規模言語モデル (LLM) が移民意思決定を支援する可能性について検討した。
以上の結果から,LSMは意思決定と人的戦略の整合性を図り,実用性と手続き的公正性を強調した。
ChatGPTは意図しない差別を防ぐために保護されているが、それでも国籍に関するステレオタイプや偏見を示し、特権グループに対する嗜好を示している。
- 参考スコア(独自算出の注目度): 8.56654604145148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With globalization and increasing immigrant populations, immigration departments face significant work-loads and the challenge of ensuring fairness in decision-making processes. Integrating artificial intelligence offers a promising solution to these challenges. This study investigates the potential of large language models (LLMs),such as GPT-3.5 and GPT-4, in supporting immigration decision-making. Utilizing a mixed-methods approach,this paper conducted discrete choice experiments and in-depth interviews to study LLM decision-making strategies and whether they are fair. Our findings demonstrate that LLMs can align their decision-making with human strategies, emphasizing utility maximization and procedural fairness. Meanwhile, this paper also reveals that while ChatGPT has safeguards to prevent unintentional discrimination, it still exhibits stereotypes and biases concerning nationality and shows preferences toward privileged group. This dual analysis highlights both the potential and limitations of LLMs in automating and enhancing immigration decisions.
- Abstract(参考訳): グローバル化と移民人口の増加に伴い、移民部門は重大な労働負荷に直面し、意思決定プロセスの公平性を確保するという課題に直面している。
人工知能の統合は、これらの課題に対する有望な解決策を提供する。
本研究は, GPT-3.5 や GPT-4 などの大規模言語モデル (LLM) が移民意思決定を支援する可能性について検討する。
混合手法を用いて, 個別選択実験と詳細なインタビューを行い, LLM意思決定戦略と公平かどうかについて検討した。
以上の結果から,LSMは意思決定と人的戦略の整合性を実証し,実用的最大化と手続き的公正性を強調した。
また,ChatGPTには意図しない差別を防止するための保護策があるものの,国籍に関するステレオタイプや偏見がまだ残っており,特権グループに対する嗜好が表れていることも明らかにした。
この二重分析は、移民決定の自動化と強化におけるLLMの可能性と限界の両方を強調している。
関連論文リスト
- Can Large Language Models Capture Human Risk Preferences? A Cross-Cultural Study [2.227470703746655]
本研究では,リスクの高い意思決定シナリオをシミュレートする大規模言語モデルを提案する。
我々は、モデル生成決定と実際の人間の反応を、一連の宝くじベースのタスクで比較する。
結果は、どちらのモデルも、人間の参加者よりもリスク回避行動を示すことを示している。
論文 参考訳(メタデータ) (2025-06-29T06:16:57Z) - Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment [49.81946749379338]
この研究は、トランスフォーマーベースのシステムの能力を分析して、データに存在する人口統計バイアスを学習する。
最終ツールにおける偏りを緩和する手段として,学習パイプラインからの性別情報を削減するためのプライバシー向上フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T15:29:43Z) - Cognitive Debiasing Large Language Models for Decision-Making [71.2409973056137]
大規模言語モデル(LLM)は意思決定アプリケーションをサポートする可能性を示している。
我々は,自己適応型認知脱バイアス(SACD)という認知脱バイアス手法を提案する。
我々の手法は、3つの逐次的なステップ – バイアス決定、バイアス分析、認知バイアス ― に従うことで、プロンプトにおける潜在的な認知バイアスを反復的に緩和する。
論文 参考訳(メタデータ) (2025-04-05T11:23:05Z) - Answer, Refuse, or Guess? Investigating Risk-Aware Decision Making in Language Models [63.54557575233165]
リスク対応意思決定のタスクを形式化し、既存のLMの重大な弱点を明らかにするとともに、スキル分解ソリューションを提案する。
本研究は, 最先端のLM (正規モデルと推論モデルの両方) であっても, タスクを効果的に処理するためには, 明示的なプロンプト連鎖が必要であることを示唆している。
論文 参考訳(メタデータ) (2025-03-03T09:16:26Z) - A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [51.8203871494146]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - Prompting Fairness: Integrating Causality to Debias Large Language Models [19.76215433424235]
大規模言語モデル(LLM)は偏見や差別的な反応を生じさせる可能性がある。
社会的偏見に対処するための因果性誘導型脱バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-13T17:46:28Z) - DeLLMa: Decision Making Under Uncertainty with Large Language Models [31.77731889916652]
DeLLMaは不確実な環境での意思決定の精度を高めるために設計されたフレームワークである。
DeLLMaは主要な言語モデルの意思決定性能を継続的に向上し、競合する手法に比べて最大40%の精度向上を達成できることを示す。
論文 参考訳(メタデータ) (2024-02-04T08:11:45Z) - Evaluating and Mitigating Discrimination in Language Model Decisions [22.89413932780164]
本稿では,言語モデル(LM)の潜在的な差別的影響を,幅広いユースケースで積極的に評価する手法を提案する。
我々は、LMを用いて、意思決定者がLMに入力できる幅広い潜在的なプロンプトを生成し、社会全体で70の多様な意思決定シナリオにまたがる。
この方法論を適用することで、介入が適用されない場合の選択設定において、Claude 2.0モデルにおける肯定的および否定的な差別のパターンが明らかになる。
論文 参考訳(メタデータ) (2023-12-06T18:53:01Z) - Gaining Wisdom from Setbacks: Aligning Large Language Models via Mistake
Analysis [127.85293480405082]
大規模言語モデル(LLM)の急速な開発は、多くの機会を提供するだけでなく、重要な課題も提示している。
既存のアライメント手法は、人間による注釈付き、欠陥のない命令応答ペアを利用することで、LLMを好ましい結果に導くのが一般的である。
本研究は誤り解析に基づく新しいアライメント手法を提案する。ミスの原因と回避方法を学習するために,LLMを誤った内容に故意に公開する手法である。
論文 参考訳(メタデータ) (2023-10-16T14:59:10Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z) - The Unequal Opportunities of Large Language Models: Revealing
Demographic Bias through Job Recommendations [5.898806397015801]
大規模言語モデル(LLM)における人口統計バイアスの分析と比較のための簡易な手法を提案する。
本稿では,ChatGPTとLLaMAの交差バイアスを計測し,本手法の有効性を示す。
両モデルとも、メキシコ労働者の低賃金雇用を一貫して示唆するなど、さまざまな人口統計学的アイデンティティに対する偏見を識別する。
論文 参考訳(メタデータ) (2023-08-03T21:12:54Z) - CMMLU: Measuring massive multitask language understanding in Chinese [133.70911295934746]
本稿では, 自然科学, 社会科学, 工学, 人文科学など, さまざまな分野をカバーする総合的な中国のベンチマークを紹介する。
CMMLUは、中国語の文脈における大きな言語モデルの知識と推論能力の評価におけるギャップを埋める。
論文 参考訳(メタデータ) (2023-06-15T15:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。