Governare l'IA: i regolatori possono controllare l'intelligenza artificiale?

5 minuti di lettura

Questo articolo è apparso originariamente su The Raconteur.

Come vede il mondo adattarsi/evolversi in un ambiente di intelligenza artificiale?

In termini di applicazioni informatiche, assisteremo a una crescente applicazione e adozione di tecniche di apprendimento automatico (ML) e di intelligenza artificiale (AI).

Lo vediamo già nei consigli per gli acquisti, nei giochi e nelle grandi reti sociali. Gli assistenti vocali come Siri, Alexa e Google Assistant utilizzano il ML per eseguire l'elaborazione del linguaggio naturale e la classificazione per rispondere in modo appropriato.

Queste tecniche renderanno l'interazione con i dispositivi sempre più fluida e, in ultima analisi, renderanno la tecnologia più facile da usare e gli esseri umani più efficienti nel trovare e gestire le informazioni.

Proprio come l'automazione e l'applicazione dell'apprendimento automatico alle imprese e ai processi aziendali, esistono molte opportunità per applicare tecniche simili alle funzioni governative. I trasporti, i servizi pubblici e la sanità pubblica sono tutte funzioni del settore pubblico che potrebbero trarre vantaggio dall'applicazione del ML e dell'AI.

Illustrazione dell'intelligenza artificiale

Stephen Hawking dice che potrebbe esserci un'apocalisse robotica, quali sono i rischi associati allo sviluppo di software in grado di prendere decisioni e di avere un pensiero "indipendente"?

Sono stato attento a usare il termine apprendimento automatico piuttosto che intelligenza artificiale perché non abbiamo ancora raggiunto quello che potrebbe essere considerato un pensiero "indipendente" nel software del computer. Inoltre, il processo decisionale e il pensiero "indipendente" sono due concetti diversi.

Oggi abbiamo automobili potenziate da computer che possono "decidere" di frenare per evitare una collisione (frenata automatica di emergenza), ma tale "decisione" è limitata a una situazione molto specifica. A mio avviso, il pensiero indipendente è associato alla consapevolezza di sé e alle emozioni. Ad oggi non abbiamo ancora raggiunto questo tipo di IA e sembra che siamo ancora molto lontani.

Non sappiamo ancora se sia possibile. Sono scettico sul fatto che saremo in grado di sviluppare computer che raggiungano un vero pensiero indipendente. Le complesse interazioni tra le funzioni del nostro cervello e la nostra fisiologia sembrano davvero difficili da replicare.

Detto questo, l'uso dei computer per automatizzare sistemi fisici complessi, come le auto a guida autonoma, che richiedono un "giudizio", sarà difficile. Ad esempio, un'auto a guida autonoma potrebbe dover decidere se danneggiare i passeggeri o molti altri pedoni.

L'auto dovrebbe proteggere i passeggeri a tutti i costi o cercare di ridurre al minimo il danno totale a tutti gli esseri umani coinvolti, anche se ciò significa danneggiare i passeggeri? Se sapeste che un'auto a guida autonoma è programmata per ridurre al minimo il danno totale alla vita umana in determinate situazioni, accettereste di permettere all'auto di guidarvi?

Quindi ci sono sicuramente dei rischi nel permettere al software di controllare i sistemi fisici. Credo che l'adozione dell'automazione informatica sarà valutata caso per caso. In alcuni casi, una maggiore automazione renderà più sicure le attività umane. In altri casi, potremmo scegliere di continuare a fare affidamento sul processo decisionale umano, ma forse aumentato dall'assistenza del computer.

L'IA sarà in grado di governare (ad esempio nelle controversie civili)?

Questo torna alla nozione di giudizio e, inoltre, di moralità. Se una vera IA fosse possibile e fosse in grado di valutare le situazioni e di emettere giudizi, allora valuteremmo l'IA per governare proprio come faremmo con i giudici umani.

Proprio come i giudici umani devono convincere l'opinione pubblica della loro idoneità a sostenere la legge, lo stesso accadrebbe ai giudici delle IA. Se dovessero superare gli attuali test per la nomina dei giudici, allora potrebbe essere accettabile permettere a un'IA di governare. Detto questo, le IA saranno in grado di governare in questo modo? Non credo.

L'intelligenza artificiale è stata utilizzata nelle recenti elezioni (Stati Uniti e Regno Unito) per valutare le politiche popolari e influenzare gli elettori.

Per essere precisi, non credo che in queste situazioni sia stata utilizzata la vera IA, ma piuttosto un'applicazione più ristretta dell'apprendimento automatico. Gli esseri umani controllavano l'esecuzione degli algoritmi di apprendimento automatico. L'IA non ha scelto da sola di influenzare le elezioni. Ritengo che l'apprendimento automatico sarà sempre più utilizzato come strumento dagli esseri umani per influenzare gli elettori e per definire le politiche.

Pensate che la governance dovrà adattarsi per gestire l'IA? È possibile regolamentarla?

In pratica, l'IA è l'applicazione di algoritmi ai dati in un processo controllato dall'uomo. In questo senso, quindi, la governance deve adattarsi a gestire e regolamentare il software informatico utilizzato in attività che possono avere un impatto sul benessere umano, come le macchine per votare, i trasporti, i sistemi sanitari e molti altri.

La tecnologia informatica è avanzata a un ritmo così rapido che la supervisione governativa non è riuscita a tenere il passo. È interessante pensare che per costruire un ponte sia necessario avere una licenza di ingegnere meccanico, mentre gli sviluppatori di software non necessitano di tale licenza per lavorare su molti tipi di sistemi che possono influenzare la vita umana, come i dispositivi medici.

Possiamo avere una governance per i software informatici senza soffocare l'innovazione e ritardare i potenziali benefici per la vita umana? Non ne sono sicuro.

Pensa che i governi avranno voce in capitolo sullo sviluppo di tecnologie legali?

Lo penso indirettamente, nel senso che i risultati o l'impatto della tecnologia saranno consentiti o meno dalla legge. Consideriamo il torbido settore dei droni. I governi avranno certamente voce in capitolo su come la tecnologia dei droni può essere impiegata e utilizzata.

I cittadini chiederanno una regolamentazione attraverso il processo democratico. Anche se nel caso dei droni la tecnologia è così nuova e diversa, la nostra comprensione del loro impatto e le leggi per regolarli non sono ancora al passo, quindi ci vorrà tempo.

I robot saranno mai in grado di commettere reati?

Se credete che possiamo creare robot artificiali intelligenti e coscienti che possono avere difetti proprio come gli esseri umani, allora sì, tali robot potrebbero commettere crimini proprio come gli esseri umani. Questo suggerirebbe che i robot hanno emozioni e motivazioni egoistiche. Dubito che riusciremo a raggiungere una tale coscienza nella tecnologia digitale.

Forse la questione più sottile è se i sistemi autonomi supportati da IA e ML possano o meno commettere un crimine, ma non consapevolmente. Credo che questo sia uno scenario più probabile. Ad esempio, un drone può volare in uno spazio aereo o in una proprietà in cui non è consentito sconfinare. Un'auto autonoma può superare il limite di velocità accidentalmente o perché era necessario evitare un incidente.

Secondo lei, i governi sono in ritardo quando si tratta di regolamentare l'IA?

Il software, in generale, si sta evolvendo a un ritmo così rapido che continuerà a rappresentare una sfida continua per la regolamentazione governativa.

Ad esempio, il software può essere sviluppato per mostrare pregiudizi, portare a sistemi non sicuri o prendere decisioni finanziariamente irresponsabili. Per questo motivo, il governo deve seguire da vicino lo sviluppo di tutte le tecnologie e intervenire di conseguenza per regolamentare ciò che è opportuno. L'intelligenza artificiale ne è l'esempio più recente e più evidente.

Cosa devono fare per mettersi al passo con tutti gli sviluppi?

Penso che dobbiamo fare un lavoro migliore per educare la popolazione su questi argomenti tecnologici complessi. Abbiamo bisogno di un maggior numero di persone con una maggiore comprensione della tecnologia, del software e della matematica. In effetti, dobbiamo sviluppare una tecnologia che ci aiuti a comprendere meglio i rischi e i benefici dei sistemi software esistenti e futuri.

In un futuro di intelligenza artificiale, sarà necessario un reddito universale? Se sì, come potrebbe essere e come potrebbe essere amministrato?

Credo che la tecnologia AI aumenterà l'attività umana più che sostituirla. Ci renderà più efficienti e potremo usare il nostro giudizio in modi diversi.

Questo aumento cambierà il modo in cui l'intelligenza umana viene applicata e la creatività umana viene realizzata. Queste nuove forme di interazione uomo-computer si tradurranno in attività di guadagno. Non credo che sarà necessario un reddito universale.

Scienziato capo di SnapLogic e professore di informatica presso l'Università di San Francisco

Stiamo assumendo!

Scoprite la vostra prossima grande opportunità di carriera.