Cercetătorii au descoperit descoperă prejudecăți ale inteligenței artificiale în ceea ce privește femeile în vârstă, care sunt încă active pe piața muncii. Noi studii au dezvăluit modul în care inteligența artificială și imaginile online perpetuează opiniile eronate despre gen, afectând totul: de la practicile de angajare, până la percepțiile de la locul de muncă. O analiză incredibilă a unui fenomen în formare.
Când ChatGPT a creat CV-uri pentru femei ipotetice, le-a portretizat ca fiind mai tinere și mai puțin experimentate decât bărbații. Noi cercetări au identificat prejudecăți omniprezente împotriva femeilor în vârstă, în rezultatele generative ale inteligenței artificiale. Constatările arată că ChatGPT generează CV-uri pentru femei pe care le prezintă ca fiind mai puțin experimentate și mai tinere, în timp ce bărbații în vârstă primesc evaluări mai mari – chiar și atunci când se bazează pe aceleași informații inițiale.
Subliniind necesitatea de a aborda prejudecățile mai profunde din modelele de inteligență artificială, cercetătorii critică dependența excesivă a companiilor de metodele simpliste de filtrare.
Cât de adânc înrădăcinate sunt prejudecățile sociale legate de gen și vârstă? Un studiu recent publicat în Nature constată că stereotipurile inexacte despre femeile în vârstă nu sunt doar omniprezente în imaginile și videoclipurile online, ci sunt perpetuate și amplificate de modelele lingvistice mari (LLM).
Inteligența artificială și „e rău să fii o femeie în vârstă”
În timp ce cercetările anterioare s-au concentrat pe prejudecățile de gen legate de vârstă în contexte specifice, această cercetare își propune să „caracterizeze o tendință la nivelul întregii culturi”, explică Douglas Guilbeault, profesor asistent de comportament organizațional la Stanford Graduate School of Business. Într-o serie de studii la scară largă realizate împreună cu Solène Delecourt, doctor în promoția 2020, de la Universitatea din California, Berkeley, Haas School of Business, și Bhargav Srinivasa Desikan de la Universitatea din Oxford/Autonomy Institute, Guilbeault a descoperit dovezi pe scară largă ale prejudecăților împotriva femeilor în vârstă. Unde le-a descoperit? Pe site-urile populare, cu de imagini și videoclipuri, și în algoritmii care alimentează instrumente populare de inteligență artificială, cum ar fi ChatGPT.
Studiul a explorat modul în care așteptările de gen ne modelează imaginea mentală despre femeile la locul de muncă – inclusiv tendința de a vedea femeile din anumite locuri de muncă ca fiind mai tinere decât sunt. Cercetările anterioare asupra acestei prejudecăți au analizat „judecățile bazate pe valori conform cărora este «rău» să fii o femeie în vârstă”, spune Guilbeault. Această nouă cercetare a adoptat o perspectivă mai largă, explorând modul în care presupunerile despre gen și vârstă modelează reprezentările femeilor în anumite roluri. „Ne-am uitat mai întâi la relația statistică”, spune Guilbeault. „Înainte să vorbim măcar despre prejudecăți – oare oamenii percep pur și simplu femeile din anumite locuri de muncă ca fiind mai tinere, punct?”.
Femeile mai tinere, suprareprezentate de inteligența artificială și nu numai
Datele recensământului arată că femeile trăiesc mai mult decât bărbații și, în general, nu există dovezi ale unei diferențe de vârstă în ceea ce privește ocuparea forței de muncă. Cu toate acestea, Guilbeault și colegii săi au descoperit că femeile mai tinere sunt suprareprezentate în imaginile online. Analizând peste 1,4 milioane de imagini și videoclipuri de pe platforme online precum Google, Wikipedia, IMDb, Flickr și YouTube, cercetătorii au descoperit că femeile sunt portretizate sistematic ca fiind mai tinere decât bărbații, în special în reprezentările ocupațiilor cu statut social mai înalt și mai bine plătite. Guilbeault și colegii săi au documentat, de asemenea, această diferență de vârstă în funcție de gen în bazele de date de imagini utilizate pentru a antrena algoritmi de învățare automată.
Guilbeault și colegii săi au examinat, de asemenea, nouă masterate în drept pentru a „caracteriza modele de ordinul miliardelor de cuvinte”. Și aici, au descoperit o reprezentare părtinitoare și distorsionată a femeilor mai în vârstă. „De ce ar apărea în miliarde de cuvinte acolo unde nu există o prezentare vizuală a persoanelor?”, întreabă Guilbeault. „Acest lucru sugerează, de fapt, că este țesut în structura modului în care clasificăm și interpretăm oamenii în lumea socială.”
Într-un alt studiu recent, Guilbeault a descoperit că persoanele expuse la imagini online ale ocupațiilor erau mai predispuse să asocieze anumite locuri de muncă cu un anumit gen. Chiar și o expunere de 45 de minute a schimbat semnificativ percepțiile oamenilor. Acest lucru este îngrijorător, spune Guilbeault: Când oamenii petrec toată ziua online, ce prejudecăți absorb inconștient?
ChatGPT a produs CV-uri pentru femei ipotetice
De ce ar apărea prejudecățile legate de vârstă și gen în miliarde de cuvinte unde nu există o prezentare vizuală a persoanelor? Acest lucru sugerează, de fapt, că sunt țesute în modul în care clasificăm și interpretăm oamenii în lumea socială.
„Conceptele pe care le folosim joacă cu adevărat un rol important în crearea lumii în care trăim”, spune Guilbeault. Pentru a înțelege cum aceste prejudecăți despre femeile la locul de muncă sunt propagate de inteligența artificială generativă, Guilbeault și colegii săi au determinat ChatGPT să genereze peste 34.500 de CV-uri unice pentru 54 de ocupații, folosind nume tipice masculine sau feminine.
Rezultatele au fost evidente. Când ChatGPT a produs CV-uri pentru femei ipotetice, a generat istoricuri de muncă care le-au portretizat ca fiind mai tinere și mai puțin experimentate. Cercetătorii au cerut apoi ChatGPT să evalueze calitatea CV-urilor. Când a luat în considerare experiențele și vârstele pe care le-a pus în aceste CV-uri imaginare, a acordat bărbaților mai în vârstă cele mai mari evaluări – chiar și atunci când acestea se bazau pe aceleași informații inițiale ca și cele ale femeilor.
Cum au ajuns aceste stereotipuri și distorsiuni în algoritmul ChatGPT? Atunci când li se cere să creeze un CV, „acesta se bazează pe nenumărate idei despre ce este o persoană, ce necesită un anumit loc de muncă, ce face un candidat bun și ce abilități sunt relevante”, explică Guilbeault. „Și în cadrul acestui proces, există nenumărate oportunități pentru ca stereotipurile să se strecoare”.
De exemplu, dacă rolul implică construcții, sistemul poate accentua dacă cineva poate repara lucrurile. „Acest lucru se bazează pe stereotipul conform căruia bărbații sunt mai buni la repararea lucrurilor”, spune Guilbeault. Modelul absoarbe aceste prejudecăți interpretative din masivul set de date umane care îl modelează, ceea ce „infiltrează modul în care abordează problema generării de CV-uri”.
Deoarece companiile de inteligență artificială sunt secretoase în ceea ce privește metodele lor de instruire, este aproape imposibil de știut exact cum modelele generative precum ChatGPT le preiau prejudecățile. Deși sursa este probabil data generată de oameni, este dificil de identificat originea specifică a informațiilor părtinitoare. „Explicația cauzală este probabil complexă și ea”, spune Guilbeault. Totuși, el și colegii săi cercetători au reușit „să demonstreze, în mod covârșitor, că această prejudecată uriașă este practic peste tot”.
Inteligența artificială distorsionează adesea realitatea
Companiile de inteligență artificială sunt conștiente de prejudecățile modelelor lor, notează Guilbeault. Până acum, soluția lor este de a aplica filtre care blochează materialele semnalate ca fiind părtinitoare sau stereotip. „Aceasta este o abordare simplistă”, spune Guilbeault, și poate trece cu vederea probleme mai nuanțate, cum ar fi discriminarea pe criterii de gen. Deși companiile de inteligență artificială pot „aplica un alt filtru” pentru a-și îmbunătăți rezultatele, acest lucru nu va rezolva defectele mai profunde din cadrul modelelor lor. „Pentru a face progrese reale, prejudecata trebuie abordată la un nivel fundamental”.
Până atunci, Guilbeault îndeamnă pe oricine folosește inteligența artificială generativă să fie „profund, profund precaut și conștient că aceste modele distorsionează adesea realitatea”. Realitatea este că presupunerile inexacte despre sex și vârstă sunt mai persistente decât își imaginează mulți oameni. „Există o credință larg răspândită că problema este practic rezolvată”, spune Guilbeault. „Și nu este”.
Bărbații, avantajați de inteligența artificială?
Cum au ajuns aceste stereotipuri și distorsiuni în algoritmul ChatGPT? Atunci când li se cere să creeze un CV, „acesta se bazează pe nenumărate idei despre ce este o persoană, ce necesită un anumit loc de muncă, ce face un candidat bun și ce abilități sunt relevante”, explică Guilbeault. „Și în cadrul acestui proces, există nenumărate oportunități pentru ca stereotipurile să se strecoare.”
De exemplu, dacă rolul implică construcții, sistemul poate accentua dacă cineva poate repara lucrurile. „Acest lucru se bazează pe stereotipul conform căruia bărbații sunt mai buni la repararea lucrurilor”, spune Guilbeault. Modelul absoarbe aceste prejudecăți interpretative din masivul set de date umane care îl modelează, ceea ce „infiltrează modul în care abordează problema generării de CV-uri”.
Companiile de inteligență artificială sunt secretoase!
După cum evidențiază profesorul, deoarece companiile de inteligență artificială sunt secretoase în ceea ce privește metodele lor de instruire, este aproape imposibil de știut exact cum modelele generative precum ChatGPT le preiau prejudecățile. Deși sursa este probabil data generată de oameni, este dificil de identificat originea specifică a informațiilor părtinitoare. „Explicația cauzală este probabil complexă și ea”, spune Guilbeault. Totuși, el și colegii săi cercetători au reușit „să demonstreze, în mod covârșitor, că această prejudecată uriașă este practic peste tot”.
Companiile de inteligență artificială sunt conștiente de prejudecățile modelelor lor, notează Guilbeault. Până acum, soluția lor este de a aplica filtre care blochează materialele semnalate ca fiind părtinitoare sau stereotip. „Aceasta este o abordare simplistă”, spune Guilbeault, și poate trece cu vederea probleme mai nuanțate, cum ar fi discriminarea pe criterii de gen. Deși companiile de inteligență artificială pot „aplica un alt filtru” pentru a-și îmbunătăți rezultatele, acest lucru nu va rezolva defectele mai profunde din cadrul modelelor lor. „Pentru a face progrese reale, prejudecata trebuie abordată la un nivel fundamental”.
Până atunci, Guilbeault îndeamnă pe oricine folosește inteligența artificială generativă să fie „profund, profund precaut și conștient că aceste modele distorsionează adesea realitatea”. Realitatea este că presupunerile inexacte despre sex și vârstă sunt mai persistente decât își imaginează mulți oameni. „Există o credință larg răspândită că problema este practic rezolvată”, spune Guilbeault. „Și nu este”.
După toate aceste date uimitoare s-ar putea spune, metaforic, că în spatele fiecărei femei se află o inteligență artificială care îi poate asigura succesul…