/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

OpenAI, comitato per la sicurezza sarà indipendente dal Cda

OpenAI, comitato per la sicurezza sarà indipendente dal Cda

Supervisionerà l'implementazione e lo sviluppo dei modelli di IA

ROMA, 17 settembre 2024, 14:11

Redazione ANSA

ANSACheck
© ANSA/EPA

© ANSA/EPA

Il comitato per la sicurezza di OpenAI introdotto lo scorso maggio diventerà un organo indipendente dal consiglio di amministrazione. L'organismo supervisionerà "i processi di sicurezza che guidano l'implementazione e lo sviluppo del modello di OpenAI", ha affermato la società sul suo blog ufficiale. Avrà anche il potere di rimandare il debutto dei sistemi di Intelligenza artificiale nel caso in cui servissero approfondimenti sulla sicurezza.

Il comitato per la sicurezza di OpenAI sarà presieduto da Zico Kolter, direttore del dipartimento di apprendimento automatico presso la scuola di informatica della Carnegie Mellon University; tra gli altri membri ci sono Adam D'Angelo, del Cda di OpenAI e cofondatore di Quora, l'ex capo dell'Nsa e membro del consiglio di amministrazione Paul Nakasone e Nicole Seligman, ex vicepresidente esecutivo di Sony. L'organismo ha individuato cinque aree chiave: stabilire una governance indipendente per la sicurezza e la protezione; rafforzare le misure di sicurezza; essere trasparenti riguardo al lavoro; collaborazione con organizzazioni esterne; unificare i parametri di sicurezza per lo sviluppo e il monitoraggio dei modelli.

Nell'ambito del proprio lavoro, il Comitato ha esaminato la sicurezza del modello di IA 'o1' lanciato di recente e continuerà a ricevere - spiega - "rapporti regolari sulle valutazioni tecniche per i modelli attuali e futuri, nonché rapporti sul monitoraggio continuo post-rilascio". Il Safety and Security Committee precedente, nominato a maggio, includeva anche il Ceo di OpenAI Sam Altman, che ora non compare forse per preparare il terreno ad un cambio della forma societaria. Stando ad alcune indiscrezioni di Forbes, infatti, l'azienda il prossimo anno cambierà la sua struttura da no-profit a società a fini di lucro.
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza