Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

Microsoft si ritira dal consiglio di OpenAI: ecco cosa cambia

Microsoft ha abbandonato il suo ruolo di osservatore nel consiglio di amministrazione di OpenAI, sollevando interrogativi sulla sicurezza e sull'equo accesso alle tecnologie IA.
  • Il 9 luglio, Microsoft ha annunciato il ritiro dal consiglio di amministrazione di OpenAI.
  • Microsoft ha investito oltre 13 miliardi di dollari in OpenAI.
  • OpenAI ha bloccato l'accesso a ChatGpt in Cina, mentre SenseTime ha offerto 50 milioni di token gratuiti per attirare nuovi utenti.
  • Nel 2023, OpenAI ha subito una violazione informatica che ha portato al furto di dettagli sulla progettazione delle sue tecnologie IA.

Microsoft ha annunciato il suo ritiro dal ruolo di “osservatore” nel consiglio di amministrazione di OpenAI, la startup di intelligenza artificiale fondata da Sam Altman. La decisione, che è stata comunicata il 9 luglio, arriva in un momento di crescente controllo da parte degli organi antitrust americani ed europei sugli investimenti delle grandi aziende tecnologiche nelle startup di intelligenza artificiale. Microsoft, che ha investito oltre 13 miliardi di dollari in OpenAI, aveva accettato un ruolo senza diritto di voto nel consiglio di amministrazione in seguito al caos che aveva travolto l’azienda lo scorso autunno, quando l’amministratore delegato Sam Altman era stato licenziato e poi reintegrato nel suo ruolo.

Secondo il Financial Times, anche Apple potrebbe assumere una posizione simile, sebbene la decisione di Microsoft non sia legata a questioni di sicurezza, ma piuttosto al crescente controllo dell’antitrust.

Blocco dell’accesso a ChatGpt in Cina

Dal 9 luglio, OpenAI ha bloccato l’accesso alle sue piattaforme dalla Cina, una decisione che ha sollevato preoccupazioni nella comunità dell’intelligenza artificiale. Xiaohu Zhu, fondatore del Centre for Safe AGI a Shanghai, ha affermato che la scelta di OpenAI “ha causato preoccupazione nella comunità dell’intelligenza artificiale” e ha sollevato interrogativi sull’equo accesso alle tecnologie di intelligenza artificiale a livello globale.

In risposta al blocco, i principali player del mercato cinese, come SenseTime, hanno colto l’opportunità per attrarre gli utenti orfani di OpenAI. SenseTime ha presentato il suo ultimo modello, Sense Nova 5, con capacità paragonabili a quelle di GPT-4 di OpenAI. Per attrarre nuovi utenti, SenseTime sta offrendo gratuitamente 50 milioni di token, crediti per l’utilizzo della piattaforma di intelligenza artificiale generativa, e supporto per migrare dai servizi di OpenAI ai propri prodotti.

Violazione informatica del 2023

Nel 2023, OpenAI ha subito una violazione informatica che ha portato al furto di dettagli sulla progettazione delle sue tecnologie di intelligenza artificiale. I cybercriminali hanno avuto accesso ai sistemi di messaggistica interna della società, ma non ai sistemi che ospitano e costruiscono l’intelligenza artificiale. La violazione è stata resa pubblica solo a fine giugno, nonostante i dirigenti di OpenAI fossero a conoscenza dell’intrusione già dall’inizio dell’anno.

Leopold Aschenbrenner, responsabile del programma tecnico di OpenAI, ha inviato una nota al consiglio di amministrazione sostenendo che la società non stava facendo abbastanza per impedire al governo cinese e ad altri avversari stranieri di rubarne i segreti. A maggio, OpenAI ha interrotto cinque operazioni di influenza segrete che utilizzavano i suoi modelli di intelligenza artificiale per “attività ingannevoli”.

Impatto sociale e futuro dell’IA

Abran Maldonado, ambasciatore di OpenAI, ha discusso l’impatto sociale dell’intelligenza artificiale e le preoccupazioni legate alla fiducia e alla trasparenza. Maldonado, di origini portoricane, ha una storia di riscatto personale e professionale che lo ha portato a fondare Createlabs, un’azienda che aiuta le persone ad acquisire competenze e opportunità lavorative nel settore tecnologico. Nel 2020, è stato chiamato da Greg Brockman, uno dei fondatori di OpenAI, per far parte del team selezionato per provare la versione beta di GPT-3.

Maldonado ha sottolineato che l’intelligenza artificiale non dovrebbe essere considerata una fonte affidabile di conoscenza, ma piuttosto un ottimo assistente che necessita di esperti sia nella fase di training che nell’utilizzo. Ha anche discusso il problema delle “allucinazioni” dei modelli di intelligenza artificiale, fenomeno in cui i sistemi producono informazioni inesistenti ricombinando conoscenze pregresse.

Maldonado ha espresso il suo sostegno per il reddito di base universale, una misura proposta per mitigare l’impatto occupazionale dei modelli di intelligenza artificiale. Ha suggerito che le aziende che beneficiano delle innovazioni tecnologiche potrebbero redistribuire una parte dei loro profitti sotto forma di sussidi per la formazione e il sostegno economico.

Bullet Executive Summary

In conclusione, il ritiro di Microsoft dal consiglio di amministrazione di OpenAI e il blocco dell’accesso a ChatGpt in Cina rappresentano due eventi significativi nel panorama dell’intelligenza artificiale. Queste decisioni sollevano importanti questioni riguardanti l’equo accesso alle tecnologie e la sicurezza delle informazioni. La violazione informatica del 2023 ha evidenziato le vulnerabilità delle aziende tecnologiche, mentre l’intervista con Abran Maldonado ha offerto una prospettiva umana e sociale sull’impatto dell’intelligenza artificiale.

*Nozione base di tecnologia: Le VPN (Virtual Private Network) sono strumenti essenziali per aggirare le censure e accedere a contenuti bloccati in determinati paesi. Esse creano una connessione sicura e criptata tra il dispositivo dell’utente e un server remoto, mascherando l’indirizzo IP dell’utente e permettendo l’accesso a contenuti altrimenti inaccessibili.

Nozione avanzata di tecnologia: I modelli linguistici di grandi dimensioni* (LLM, Large Language Models) come GPT-3 e GPT-4 sono basati su reti neurali profonde e sono addestrati su enormi quantità di dati testuali. Questi modelli utilizzano tecniche avanzate di apprendimento automatico per generare testo coerente e contestualmente rilevante, ma sono anche soggetti a fenomeni di “allucinazione” in cui producono informazioni inesistenti o errate.

Questi sviluppi ci invitano a riflettere sul futuro dell’intelligenza artificiale e sul suo impatto sulla società. Come possiamo garantire un accesso equo alle tecnologie avanzate? Quali misure possiamo adottare per proteggere la sicurezza delle informazioni? E come possiamo mitigare l’impatto occupazionale delle innovazioni tecnologiche? Queste sono domande cruciali che richiedono una riflessione approfondita e un’azione concertata da parte di tutti gli attori coinvolti.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *