Il deficit etico dell'IA - Il 94% dei responsabili IT chiede maggiore attenzione allo sviluppo responsabile ed etico dell'IA

L'87% ritiene che lo sviluppo dell'IA debba essere regolamentato, secondo il nuovo studio di SnapLogic

SAN MATEO, CALIFORNIA e LONDRA, Regno Unito - 26 marzo 2019 - Lo sviluppo etico e responsabile dell'intelligenza artificiale è una delle principali preoccupazioni dei responsabili delle decisioni IT (ITDM), secondo una nuova ricerca di SnapLogic che ha rilevato che il 94% degli ITDM negli Stati Uniti e nel Regno Unito ritiene che sia necessario prestare maggiore attenzione alla responsabilità aziendale e all'etica nello sviluppo dell'IA. Un altro 87% degli ITDM ritiene che lo sviluppo dell'IA debba essere regolamentato per garantire che serva i migliori interessi delle aziende, dei governi e dei cittadini.

La nuova ricerca, condotta da Vanson Bourne per conto di SnapLogic, ha studiato i punti di vista e le prospettive degli ITDM di tutti i settori, ponendo domande chiave come: chi ha la responsabilità primaria di garantire che l'IA sia sviluppata in modo etico e responsabile, i consorzi di esperti globali avranno un impatto sul futuro sviluppo dell'IA e l'IA dovrebbe essere regolamentata e, se sì, da chi?

Chi è responsabile?

Alla domanda su quale sia la responsabilità ultima per garantire che i sistemi di IA siano sviluppati in modo etico e responsabile, più della metà (53%) degli ITDM indica le organizzazioni che sviluppano i sistemi di IA, indipendentemente dal fatto che si tratti di un'entità commerciale o accademica. Tuttavia, il 17% attribuisce la responsabilità agli individui che lavorano ai progetti di IA. Ciò che colpisce è che gli intervistati negli Stati Uniti hanno una probabilità più che doppia rispetto a quelli del Regno Unito di assegnare la responsabilità ai singoli lavoratori (21% contro 9%).

Un numero simile (16%) ritiene che un consorzio globale indipendente, composto da rappresentanti del governo, del mondo accademico, degli istituti di ricerca e delle imprese, sia l'unico modo per stabilire regole e protocolli equi per garantire uno sviluppo etico e responsabile dell'IA. Un altro 11% delle ITDM ritiene che la responsabilità debba ricadere sui governi dei Paesi in cui vengono sviluppati i sistemi di IA.

Guida ed esperienza indipendente

Alcune iniziative regionali indipendenti che forniscono supporto, orientamento e supervisione in materia di IA stanno già prendendo forma, e il Gruppo di esperti di alto livello della Commissione europea sull'intelligenza artificiale ne è un esempio. I DTM considerano gruppi di esperti come questo un passo positivo per affrontare le questioni etiche legate all'IA. La metà degli ITDM (50%) ritiene che le organizzazioni che sviluppano l'IA prenderanno in considerazione le indicazioni e le raccomandazioni di gruppi di esperti come questo durante lo sviluppo dei loro sistemi di IA. Inoltre, il 55% ritiene che questi gruppi favoriranno una migliore collaborazione tra le organizzazioni che sviluppano IA.

Tuttavia, gli inglesi sono più scettici sull'impatto di questi gruppi. Il 15% degli ITDM del Regno Unito ha dichiarato di aspettarsi che le organizzazioni continueranno a spingere i limiti dello sviluppo dell'IA senza tenere conto delle indicazioni fornite dai gruppi di esperti, rispetto al 9% delle loro controparti americane. Inoltre, il 5% degli ITDM britannici ha indicato che le indicazioni o i consigli dei gruppi di supervisione sarebbero di fatto inutili per guidare lo sviluppo etico dell'IA, a meno che non diventino applicabili per legge.

Un appello alla regolamentazione

Molti ritengono che per garantire uno sviluppo etico e responsabile dell'IA sia necessaria una regolamentazione. In effetti, l'87% degli ITDM ritiene che l'IA debba essere regolamentata, con il 32% che ritiene che tale regolamentazione debba provenire da una combinazione di governo e industria, mentre il 25% ritiene che la regolamentazione debba essere responsabilità di un consorzio industriale indipendente.

Tuttavia, alcuni settori sono più aperti alla regolamentazione rispetto ad altri. Quasi un quinto (18%) degli ITDM del settore manifatturiero si oppone alla regolamentazione dell'IA, seguito dal 13% di quelli del settore tecnologico e dal 13% di quelli del settore della vendita al dettaglio, della distribuzione e dei trasporti. Nel motivare il rifiuto della regolamentazione, gli intervistati si sono divisi quasi equamente tra la convinzione che la regolamentazione rallenterebbe l'innovazione dell'IA e che lo sviluppo dell'IA dovrebbe essere a discrezione delle organizzazioni che creano i programmi di IA.

Sostenere l'innovazione dell'IA in modo responsabile

Gaurav Dhillon, CEO di SnapLogic, ha commentato: "L'intelligenza artificiale è il futuro e sta già avendo un impatto significativo sulle imprese e sulla società. Tuttavia, come per molti sviluppi in rapida evoluzione di questa portata, esiste il potenziale per appropriarsene per scopi immorali, malevoli o semplicemente non voluti. Tutti noi dovremmo desiderare che l'innovazione dell'IA fiorisca, ma dobbiamo gestire i rischi potenziali e fare la nostra parte per garantire che l'IA progredisca in modo responsabile".

Dhillon ha proseguito: "Le preoccupazioni relative alla qualità dei dati, alla sicurezza e alla privacy sono reali e il dibattito sulla regolamentazione continuerà. Ma l'intelligenza artificiale si basa sui dati - richiede un accesso continuo e pronto a grandi volumi di dati che fluiscono liberamente tra sistemi diversi per addestrare ed eseguire efficacemente il sistema di IA. La regolamentazione ha i suoi meriti e potrebbe essere necessaria, ma dovrebbe essere implementata in modo ponderato in modo da mantenere l'accesso ai dati e il flusso di informazioni. In mancanza di ciò, i sistemi di IA lavoreranno sulla base di dati incompleti o errati, ostacolando il progresso della futura innovazione dell'IA".

Informazioni sulla ricerca

La ricerca è stata condotta dalla società di ricerca indipendente Vanson Bourne nel febbraio 2019 per conto di SnapLogic. Allo studio hanno partecipato 300 decisori IT, in rappresentanza di organizzazioni con più di 1.000 dipendenti negli Stati Uniti e nel Regno Unito.

Informazioni su Vanson Bourne

Vanson Bourne è un'azienda indipendente specializzata in ricerche di mercato per il settore tecnologico. La sua reputazione di analisi solida e credibile si basa su principi di ricerca rigorosi e sulla capacità di raccogliere le opinioni di decisori senior in tutte le funzioni tecniche e commerciali, in tutti i settori e in tutti i principali mercati. Per ulteriori informazioni, visitate il sito vansonbourne.com.

Informazioni su SnapLogic

SnapLogic è la prima piattaforma di integrazione intelligente. Grazie ai flussi di lavoro basati sull'intelligenza artificiale e alle funzionalità di integrazione self-service, SnapLogic consente alle aziende di gestire in modo semplice e veloce tutti i progetti di integrazione delle applicazioni, di integrazione dei dati e di ingegneria dei dati su un'unica piattaforma scalabile. Centinaia di clienti Global 2000, tra cui Adobe, AstraZeneca, Box, Emirates, Schneider Electric e Wendy's, si affidano a SnapLogic per automatizzare i processi aziendali, accelerare le analisi e guidare la trasformazione digitale. Per saperne di più: snaplogic.com.

Collegatevi con SnapLogic tramite il nostro blog, Twitter, Facebook o LinkedIn.

Contatti con la stampa:


Scott Behles
SnapLogic
[email protected]
+1 415-571-4462

Marnie Spicer
Kaizo per SnapLogic
[email protected]
+44 (0) 20 3176 4723

Volete maggiori informazioni?