Google a anunțat PaliGemma 2, o familie de modele AI capabile să identifice emoții. Experții avertizează asupra implicațiilor etice și riscurilor legate de discriminare, scrie TechCrunch.
Google a dezvăluit joi familia de modele AI PaliGemma 2, capabilă să analizeze imagini și să identifice emoții. Evident, are nevoie de ajustări suplimentare, însă experții critică deja această tehnologie, considerând-o o extrapolare riscantă și lipsită de bază științifică solidă.
Sandra Wachter, profesor la Oxford Internet Institute, a declarat că încercarea de a „citi” emoțiile este problematică și comparabilă cu „consultarea unui glob de cristal”.
La rândul său, Mike Cook, cercetător în domeniul AI, a vorbit despre complexitatea emoțiilor umane și imposibilitatea detectării lor generalizate prin intermediul trăsăturilor faciale.
Studiile anterioare au demonstrat că modelele de analiză emoțională pot fi inexacte și părtinitoare. Cercetări de la MIT au arătat că astfel de sisteme tind să favorizeze expresii faciale specifice, precum zâmbetul, și să atribuie mai multe emoții negative persoanelor de culoare comparativ cu cele albe.
Google susține că a realizat teste extinse pentru a evalua prejudecățile demografice ale PaliGemma 2, utilizând benchmark-uri precum FairFace. Totuși, compania nu a dat detalii complete despre metodologia acestor teste, iar unele voci critice consideră FairFace o măsură insuficientă.
PaliGemma 2 este deja disponibilă publicului pe platforme precum Hugging Face. Experții avertizează că utilizarea greșită a acestor modele ar putea exacerba discriminarea, în special împotriva grupurilor marginalizate.
Google susține că a integrat măsuri etice, însă unii specialiști, precum Wachter, cer o abordare un pic mai responsabilă: „Inovația responsabilă presupune analizarea consecințelor din prima zi și pe tot parcursul ciclului de viață al produsului”.