Economia

Musk lavora alla sua Chat GPT. E OpenAI si prende una pausa

Questa notizia è stata scritta più di un anno fa old news

Il magnate sudafricano Elon Musk sta lavorando a una sua versione di Chat GPT, sviluppata dalla sua nuova startup X.Ai. Lo rivela il “Financial Times”, secondo cui Musk starebbe cercando ingegneri, ricercatori e capitali per far crescere il suo nuovo progetto. In realtà, X.Ai esiste già: è stata registrata in Nevada lo scorso 9 marzo. Musk figura come il suo presidente, accompagnato da Jared Birchall, ex banchiere di Morgan Stanley e responsabile della gestione dell’immenso patrimonio dello stesso Musk.

La Chat GPT di Musk

Tra le persone coinvolte in X.Ai ci sarebbe Igor Babuschkin, che un tempo lavorava per DeepMind, azienda inglese di intelligenza artificiale tra le più quotate e parte di Alphabet, holding a cui fa capo anche Google. Fonti vicine al progetto di Musk spiegano che l’idea di fondare X.Ai è nata proprio per entrare in competizione con OpenAI, da lui co-fondata nel 2015. Soltanto tre anni dopo, l’imprenditore sudafricano aveva però lasciato il progetto, dicendosi preoccupato per le questioni di sicurezza poste dal modello di intelligenza artificiale che si stava sviluppando.

L’appello di Musk su Chat GPT

Ricordiamo che Elon Musk insieme ad un migliaio di manager e ricercatori hanno firmato una lettera aperta, attraverso la quale si chiede alle società e alle organizzazioni che lavorano su progetti di AI di fermarsi per almeno sei mesi.

OpenAI, da parte sua, non ha voluto contestualizzare la decisione presa. Si è limitata ad affermare che è necessario prendersi del tempo per valutare e studiare il modello di sicurezza legato all’intelligenza artificiale e tentare di capire cosa stia accadendo.

Questo approccio cautelativo permetterebbe alla società di avere più tempo per migliorare il trattamento dei dati personali degli utenti di Chat GPT. I problemi di privacy e la questione della gestione dei dati, tra l’altro, è stata messa in evidenza per la prima volta a marzo dal Garante sulla Privacy italiano. Alle richieste arrivate dall’authority italiana, OpenAI ha risposto con la chiusura temporanea dell’accesso a chatbot in Italia. Il Garante ha proposto nuove linee guida che, nel caso in cui dovessero essere adottate entro il 30 aprile, potrebbero portare Chat GPT ad essere nuovamente operativo in Italia.

Open AI si prende una pausa

Intanto OpenAI, dopo il rilascio avvenuto qualche settimana fa della quarta versione di Chat GPT, ha spiegato che, almeno per il momento, non è previsto il rilascio della quinta generazione. Stando alla tabella di marcia predisposta da OpenAI per il rilascio di Chat GPT, la prossima iterazione dovrebbe essere quella che renderà il modello linguistico dell’intelligenza artificiale molto simile a quello dell’uomo: è stato, infatti, raggiunto lo status di Agi, acronimo di artificial general intelligence. A quel punto le chat con gli utenti umani diventerebbero quasi indistinguibili tra agente virtuale e reale.

Sam Altman, amministratore delegato di OpenAI, ha spiegato, riferendosi al rilascio della quinta generazione, che per il momento “non lo stiamo sviluppando e non lo faremo per un bel po’ di tempo. Stiamo facendo altre cose oltre con GPT-4 e penso ci siano una serie di problemi di sicurezza che è importante affrontare”.

AI: la presa di posizione di Google

Nel caso in cui venisse usata in maniera sbagliata, l’intelligenza artificiale potrebbe diventare molto pericolosa. Ad esprimersi in questo modo è Sundar Pichai, amministratore delegato di Google, nel corso di un’intervista rilasciata alla Cbs. Pichai è convinto che siano necessarie delle norme simili a quelle che sono state usate nei trattati per regolare l’utilizzo delle armi nucleari. Il timore di Pichai è che la competizione per far progredire la tecnologia, possa far accantonare i timori per la sicurezza.

Lo sviluppo dell’intelligenza artificiale, secondo Pichai, avrà un impatto su tutti i settori. A beneficiare di questi sviluppi saranno anche gli ambiti legati alla conoscenza, alla scrittura e alla progettazione. Non sarà risparmiata nemmeno l’informazione: il rischio, in questo caso, è che le fake news possano arrecare molti danni.

Questo è il motivo per il quale è necessario di dotarsi di norme molto precise, cercando di rendere l’AI il più sicura possibile. Queste richieste lo avvicinano alla lettera aperta firmata alcune settimane fa proprio da Elon Musk e da oltre mille esperti.

Pichai ritiene che la società debba adattarsi rapidamente. Devono essere introdotte delle leggi per punire gli abusi, essere presi degli accordi tra i vari paesi per rendere l’AI più sicura come delle norme che si allineano con i valori umani: non spetta a un’azienda decidere.