OpenAI usa lavoratori kenyoti a 2$ l’ora per “ripulire” Chat GPT

19 Gennaio 2023, di Luca Losito

Non è tutto oro quel che luccica. Torna a far discutere l’intelligenza artificiale (AI) con la chiacchieratissima Chat GPT, chatbot basato sull’AI della società americana OpenAI, che sarebbe stata ripulita da testi offensivi o violenti anche grazie all’utilizzo di lavoratori del Kenya pagati circa 2 dollari l’ora. Ad affermarlo è un’inchiesta condotta da “Time”.

Le preoccupazioni sul piano etico

La notizia che OpenAI abbia assoldato lavoratori kenyioti a una cifra irrisoria per “ripulire” Chat GPT da contenuti scabrosi ha sollevato molta preoccupazione circa le politiche lavorative dell’azienda con sede a San Francisco. L’opinione diffusa è che OpenAI dovrebbe rivedere le proprie pratiche di lavoro e garantire che i lavoratori ricevano una paga equa e dignitosa. Inoltre, una realtà così importante nell’ambito dell’intelligenza artificiale deve fare tutto il possibile per assicurarsi che la tecnologia sia usata solo per scopi etici.

In particolare, la società statunitense ha fatto affidamento su un partner di outsourcing in Kenya, Sama, per etichettare decine di migliaia di frammenti di testo e rimuoverli da Chat GPT. Questi testi spesso descrivevano infatti situazioni drammatiche, violente o a sfondo sessuale. Per aumentare la sicurezza del proprio chatbot, OpenAI ha deciso di attuare strategie simili a quelle scelte da Facebook per rilevare e rimuovere il linguaggio tossico dalla sua piattaforma.

Gli impatti negativi dell’outsourcing

Mentre Sama si presenta come un’azienda di “intelligenza artificiale etica” e afferma di aver contribuito a far uscire dalla povertà più di 50.000 persone, gli etichettatori di dati intervistati da “Time” hanno descritto un ambiente di lavoro stressante e traumatico a causa della natura dei contenuti che erano costretti a guardare.

Dunque se da un lato l’outsourcing è diventato sempre più comune nel settore tecnologico, dall’altro bisogna considerare l’impatto che questo può produrre sui lavoratori coinvolti. È importante che le Big Tech tengano conto di questi risvolti dell’outsorcing e si assicurino che i loro partner forniscano condizioni di lavoro eque e sicure. Affinché situazioni come quelle verificatesi con Sama, non si ripetano mai più.