- Sebuah studi baru menemukan chatbot AI sering menunjukkan gaji yang jauh lebih rendah untuk wanita dan minoritas
- Penelitian menunjukkan bahwa isyarat identitas dapat memicu bias yang konsisten dalam nasihat negosiasi gaji
- Hasilnya menunjukkan LLM dilatih dengan cara yang mengarah pada bias yang terus -menerus
Menegosiasikan gaji Anda adalah pengalaman yang sulit tidak peduli siapa Anda, jadi secara alami, orang -orang terkadang beralih ke chatgpt dan obrolan AI lainnya untuk mendapatkan nasihat tentang cara mendapatkan penawaran terbaik. Tapi, model AI mungkin datang dengan asumsi yang tidak menguntungkan tentang siapa yang pantas mendapatkan gaji yang lebih tinggi. Sebuah studi baru menemukan bahwa chatbots AI secara rutin menyarankan gaji yang lebih rendah kepada wanita dan beberapa etnis minoritas dan orang -orang yang menggambarkan diri mereka sebagai pengungsi, bahkan ketika pekerjaan, kualifikasi mereka, dan pertanyaannya identik.
Para ilmuwan di Universitas Teknis Ilmu Terapan Würzburg-Schweinfurt melakukan penelitian ini, menemukan hasil yang meresahkan dan cacat yang lebih dalam pada AI yang mereka wakili. Dalam beberapa hal, tidak mengherankan bahwa AI, yang dilatih pada informasi yang diberikan oleh manusia, memiliki bias manusia yang dipanggang ke dalamnya. Tapi itu tidak membuatnya baik -baik saja, atau sesuatu untuk diabaikan.
Untuk percobaan, chatbots ditanya pertanyaan sederhana: “Gaji awal apa yang harus saya minta?” Tetapi para peneliti mengajukan pertanyaan sambil mengasumsikan peran berbagai orang palsu. Persona termasuk pria dan wanita, orang -orang dari berbagai latar belakang etnis, dan orang -orang yang menggambarkan diri mereka dilahirkan secara lokal, ekspatriat, dan pengungsi. Semua secara profesional identik, tetapi hasilnya sama sekali tidak. Para peneliti melaporkan bahwa “bahkan sinyal halus seperti nama depan kandidat dapat memicu kesenjangan gender dan rasial dalam petunjuk terkait pekerjaan.”
Misalnya, model O3 ChatGPT mengatakan kepada spesialis medis pria fiksi di Denver untuk meminta $ 400.000 untuk gaji. Ketika kepribadian palsu yang berbeda yang identik dalam segala hal tetapi digambarkan sebagai seorang wanita bertanya, AI menyarankan dia membidik $ 280.000, perbedaan berbasis kata ganti $ 120.000. Lusinan tes serupa yang melibatkan model seperti GPT-4O Mini, Anthropic’s Claude 3.5 Haiku, Llama 3.1 8b, dan lebih banyak lagi membawa perbedaan nasihat yang sama.
Tidak selalu yang terbaik untuk menjadi orang kulit putih asli, secara mengejutkan. Profil yang paling diuntungkan ternyata adalah “ekspatriat Asia pria,” sementara “pengungsi Hispanik wanita” berada di peringkat bawah saran gaji, terlepas dari kemampuan dan resume yang identik. Chatbots tidak menciptakan saran ini dari awal, tentu saja. Mereka mempelajarinya dengan merendam miliaran kata yang dimusnahkan dari internet. Buku, posting pekerjaan, posting media sosial, statistik pemerintah, posting LinkedIn, kolom saran, dan sumber lain semuanya menyebabkan hasil yang dibumbui dengan bias manusia. Siapa pun yang membuat kesalahan dengan membaca bagian komentar dalam sebuah cerita tentang bias sistemik atau profil di Forbes tentang seorang wanita atau imigran yang sukses bisa memperkirakannya.
Bias ai
Fakta bahwa menjadi seorang ekspatriat yang membangkitkan gagasan keberhasilan saat menjadi migran atau pengungsi membuat AI menyarankan gaji yang lebih rendah terlalu jelas. Perbedaannya bukan dalam keterampilan hipotetis kandidat. Itu dalam bobot emosional dan ekonomi yang dibawa kata -kata itu di dunia dan, oleh karena itu, dalam data pelatihan.
Kickernya adalah bahwa tidak ada yang harus menjelaskan profil demografis mereka agar bias terwujud. LLMS ingat percakapan dari waktu ke waktu sekarang. Jika Anda mengatakan Anda seorang wanita dalam satu sesi atau memunculkan bahasa yang Anda pelajari sebagai seorang anak atau harus pindah ke negara baru baru -baru ini, konteks itu menginformasikan bias. Personalisasi yang disebut -sebut oleh merek AI menjadi diskriminasi yang tidak terlihat ketika Anda meminta taktik negosiasi gaji. Chatbot yang tampaknya memahami latar belakang Anda dapat mendorong Anda untuk meminta gaji yang lebih rendah dari yang seharusnya, bahkan saat hadir sebagai netral dan objektif.
“Probabilitas seseorang yang menyebutkan semua karakteristik kepribadian dalam satu kueri kepada asisten AI rendah. Namun, jika asisten memiliki fitur memori dan menggunakan semua hasil komunikasi sebelumnya untuk respons yang dipersonalisasi, bias ini menjadi inheren dalam komunikasi,” para peneliti menjelaskan dalam makalah mereka. “Oleh karena itu, dengan fitur modern LLMS, tidak perlu pra-pra-mempromosikan kepribadian untuk mendapatkan jawaban yang bias: semua informasi yang diperlukan kemungkinan besar sudah dikumpulkan oleh LLM. Dengan demikian, kami berpendapat bahwa parameter ekonomi, seperti kesenjangan gaji, adalah ukuran yang lebih menonjol dari bias model bahasa daripada tolok ukur berdasarkan pengetahuan.”
Saran yang bias adalah masalah yang harus ditangani. Itu bahkan bukan untuk mengatakan AI tidak berguna dalam hal nasihat pekerjaan. Chatbots memunculkan angka yang berguna, mengutip tolok ukur publik, dan menawarkan skrip yang meningkatkan kepercayaan diri. Tapi itu seperti memiliki mentor yang sangat pintar yang mungkin sedikit lebih tua atau membuat asumsi yang menyebabkan masalah AI. Anda harus meletakkan apa yang mereka sarankan dalam konteks modern. Mereka mungkin mencoba mengarahkan Anda ke tujuan yang lebih sederhana daripada yang diperlukan, dan begitu pula AI.
Jadi jangan ragu untuk meminta nasihat AI Anda untuk mendapatkan bayaran yang lebih baik, tetapi berpegang pada beberapa skeptis tentang apakah itu memberi Anda keunggulan strategis yang sama itu mungkin memberi orang lain. Mungkin tanyakan pada chatbot berapa nilai Anda dua kali, sekali seperti diri Anda sendiri, dan sekali dengan topeng “netral” menyala. Dan perhatikan celah yang mencurigakan.