Un percorso legislativo per stabilire 'guard-rails', cioè barriere di protezione' sulle applicazioni di intelligenza artificiale, presentato dal ministro australiano per Industria e Commercio Ted Husic, ha ricevuto il sostegno dell'architetto principale della strategia legislativa dell'Unione Europea in materia, Kai Zenner, collaboratore del parlamentare tedesco Alex Voss.
In un'intervista al quotidiano The Australian, Zenner promuove azioni governative più assertive verso le distorsioni e la disinformazione a fini politici di modelli di IA Il dipartimento federale australiano Industria e Scienza ha pubblicato uno studio in cui propone tre opzioni per regolare la IA, chiedendo feedback in materia. Zenner sostiene la seconda opzione, una legislazione quadro affiancata da 'emendamenti rilevanti' a regimi legislativi esistenti, come tecnologia medica o privacy, in modo da evitare le lacune emerse in materia nella legislazione UE. Aggiunge che tale approccio totalizzante di regolamentazione della IA, in luogo di emendamenti di singole strutture regolatorie, ha portato a confusione normativa, in cui una compagnia è soggetta a limiti nel ricorso alla IA e anche di privacy dell'informazione.
Zenner solleva anche preoccupazioni verso le distorsioni politiche nei modelli di IA che probabilmente non sono considerate ad 'alto rischio' secondo la legislazione, e raccomanda i regolamenti più stringenti. E paragona lo scenario peggiore all'incendio della biblioteca di Alessandria nel 48 a.C. "Immaginate un futuro in cui i dati di Google escludano ogni informazione sulla schiavitù, e sulle guerre in Vietnam e in Iraq, e in Cina", aggiunge.
Riproduzione riservata © Copyright ANSA