Intelligenza Artificiale: supporto o minaccia all’uomo?
L’Intelligenza Artificiale è un tema sempre più presente nella nostra quotidianità: trova applicazione in diversi ambiti e il suo contributo sta diventando sempre più efficace, grazie alla sua intrinseca capacità di apprendimento. Proprio per le sue potenzialità stupisce e al tempo stesso spaventa. Come tutte le nuove tecnologie porta con sé pro e contro. Tra questi ultimi, la possibilità di sostituirsi all’uomo, di generare informazioni false e di essere dannosa a livello ambientale. Tra discussioni e problemi etici, è stata recentemente normata a livello europeo.
Per poter approfondire il tema dell’Intelligenza Artificiale, è prima necessario definire di cosa si tratta: in sostanza, è una tecnologia che permette a una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento e la pianificazione.
Le notevoli peculiarità dell’Intelligenza Artificiale le permettono di essere utilizzata in diversi ambiti, tra cui:
– Sanità: ad esempio per analizzare cartelle cliniche o immagini mediche come radiografie, TAC e risonanze magnetiche
– Marketing: può ad esempio analizzare dati sui consumatori e prevedere tendenze di mercato
– Cybersecurity: svolge attività quali rilevare, monitorare e neutralizzare minacce informatiche in tempo reale
– Assistenza Clienti: può essere sfruttata per rispondere a domande frequenti, risolvere problemi e fornire assistenza
– Intrattenimento: è utilizzabile per attività come analizzare le preferenze degli utenti e suggerire loro contenuti che potrebbero trovare interessanti
– Energia e ambiente: ad esempio, monitora i cambiamenti climatici e prevede eventi catastrofici come incendi o inondazioni
L’Intelligenza Artificiale è sostanzialmente di due tipi. L’Intelligenza Artificiale debole è addestrata e orientata a eseguire attività specifiche. L’Intelligenza Artificiale forte si ha invece quando una macchina ha un’intelligenza pari a quella umana e da essa indistinguibile, una coscienza autoconsapevole in grado ad esempio di sviluppare empatia e la capacità di risolvere ogni tipo di problema, senza limiti legati a task specifici. Questo secondo tipo di Intelligenza Artificiale, ad oggi, è puramente teorica e non ne esistono esempi pratici.
Quello che più stupisce è che i sistemi di Intelligenza Artificiale possono migliorarsi sulla base degli effetti delle loro azioni. Questo è possibile grazie agli algoritmi su cui l’Intelligenza Artificiale si basa.
Tra le varie tecniche di apprendimento le principali sono:
– Machine Learning (apprendimento automatico): permettono all’Intelligenza Artificiale, dopo un’opportuna fase di addestramento, di generare un output grazie all’elaborazione di informazioni
– Deep Learning (apprendimento profondo): si basano su reti neurali artificiali che simulano il meccanismo complesso del cervello umano e costruiscono modelli, non producendo però pensieri
Proprio per le sue caratteristiche, l’Intelligenza Artificiale rappresenta per alcuni versi una minaccia, soprattutto dal momento che non se ne conoscono (ancora) i limiti.
Il 21 maggio 2024 il Consiglio dell’UE ha approvato una legge specifica, l’Artificial Intelligence Act, il primo insieme di regole al mondo sull’Intelligenza Artificiale. Questa legge, unica nel suo genere, adotta un approccio basato sui rischi che l’Intelligenza Artificiale potrebbe portare con sé: maggiore è il rischio di causare danni alla società, più severe sono le regole. Dai vincoli normativi sono esclusi i sistemi usati per scopi militari e di difesa.
Al tempo stesso, la legge promuove lo sviluppo e l’adozione di sistemi di Intelligenza Artificiale sicuri e affidabili per scopi di ricerca e per la tutela dei cittadini. Il regolamento non è stato ancora applicato – devono infatti trascorrere due anni dalla sua promulgazione – ma sta già avendo un impatto anche al di fuori dell’Europa e potrebbe andare a stabilire uno standard globale.
L’Artificial Intelligence Act non si applica agli individui, ma solo a livello commerciale. Ad esempio, definisce che debba essere dichiarato da ChatGPT – il software di Intelligenza Artificiale più utilizzato per rispondere a qualsiasi domanda – e OpenAI se il materiale che usano per l’addestramento è protetto da copyright.
Le pratiche che la normativa europea vieta severamente sono quelle che prevedono l’uso dell’Intelligenza Artificiale per manipolare o sfruttare le vulnerabilità delle persone.
Ma come si è arrivati all’Intelligenza Artificiale dei giorni nostri, che inizia addirittura ad essere normata? L’idea di una “macchina che pensa” risale all’antica Grecia ma in anni più recenti si è assistito a tappe fondamentali per la sua evoluzione.
Nel 1950 Alan Turing pubblica l’articolo Computing Machinery and Intelligence, che pone un’importante questione: le macchine possono pensare? Turing sviluppa poi un test che ha come obiettivo quello di verificare quanto il comportamento di una macchina possa avvicinarsi a quello umano, fino al punto estremo di diventarne indistinguibile. Nel 1956 John McCarthy conia il termine “Intelligenza Artificiale” in occasione della prima conferenza a tema presso il Dartmouth College. In seguito, Allen Newell, JC Shaw e Herbert Simon creano il primo programma di Intelligenza Artificiale funzionante, Logic Theorist.
Nel 1967 Frank Rosenblatt costruisce il primo computer basato su una rete neurale che impara per tentativi ed errori, il Mark 1 Perceptron. Successivamente, Marvin Minsky e Seymour Papert scrivono l’omonimo libro Perceptrons, diventato poi un vero e proprio riferimento in materia.
Negli anni ottanta le reti neurali iniziano ad adottare un algoritmo di backpropagation e vengono utilizzate nelle applicazioni di Intelligenza Artificiale.
Nel 1995 Stuart Russell e Peter Norvig pubblicano il manuale Artificial Intelligence: A Modern Approach, nel quale vengono indicati obiettivi e definizioni dell’Intelligenza Artificiale.
Nel 2004 John McCarthy propone una definizione ancora utilizzata di Intelligenza Artificiale nell’articolo What Is Artificial Intelligence?
Nel 2023 arriviamo infine a una delle tappe più note: si diffonde ChatGPT, un tipo di Intelligenza Artificiale generativa che funziona grazie a modelli di apprendimento profondo.
Come accennato, il concetto di apprendimento profondo ha delle caratteristiche che si avvicinano molto alle peculiarità umane: questo rende l’Intelligenza Artificiale più di una semplice tecnologia. Per sua natura, infatti, l’Intelligenza Artificiale è un tema controverso, che porta con sé aspetti sia positivi che negativi.
Tra gli aspetti positivi, l’Intelligenza Artificiale può ad esempio contribuire all’economia con percorsi di vendita ottimizzati, può migliorare la manutenzione dei macchinari, anche in ottica predittiva, può aumentare la produttività e la qualità ottenuta, riducendo anche gli sprechi energetici. Secondo uno studio del Parlamento Europeo, entro il 2035 grazie all’Intelligenza Artificiale si avrà un aumento stimato della produttività del lavoro compreso tra l’11 e il 37%. L’Intelligenza Artificiale è in grado di svolgere attività automatizzandole e riducendo notevolmente il margine di errore. A differenza dell’uomo, non va incontro a cali di produttività. Inoltre, l’Intelligenza Artificiale per essere utilizzata non richiede particolari conoscenze e può trovare applicazione nella quotidianità domestica, ad esempio nelle case smart o per simulazioni con la realtà aumentata.
Di contro, sviluppare un’Intelligenza Artificiale è molto costoso. In futuro poi l’automatizzazione potrebbe ridurre le opportunità di lavoro e potrebbe avere il compito e la capacità di prendere decisioni autonome. Inoltre, l’Intelligenza Artificiale non ha importanti doti umane come l’empatia, l’etica o il discernimento.
Un ulteriore aspetto negativo da non sottovalutare riguarda i rischi legati all’utilizzo dei dati personali che, con l’intervento dell’Intelligenza Artificiale, possono essere raccolti accuratamente ed essere poi sfruttati dagli hacker. Operazioni come il phishing possono quindi risultare più facili, più convincenti e difficili da smascherare.
Infine, occorre sottolineare anche come l’Intelligenza Artificiale potrebbe essere anti-democratica nel proporre, grazie agli algoritmi, sempre la stessa tipologia di contenuti agli utenti.
Non è possibile escludere dall’analisi del tema la questione etica. Questo sia per quanto concerne l’equilibrio uomo-macchina, sia in termini di sostenibilità ambientale.
A livello ambientale, software come ChatGPT per funzionare richiedono un enorme dispendio energetico e di acqua, utilizzata ad esempio per raffreddare i server. Secondo uno studio della Cornell University, lo sviluppo di ChatGPT3 ha richiesto 700.000 litri di acqua e ogni sua interazione da venti messaggi ne richiede circa mezzo litro.
Nonostante le risorse dell’Intelligenza Artificiale possano costituire un aiuto nel contrastare la crisi climatica, più l’Intelligenza Artificiale diventerà accessibile e più il consumo idrico ad essa legato aumenterà.
Per questi aspetti e per ulteriori, l’UE ha ad esempio formulato la Carta Etica, contenente sette requisiti per l’utilizzo dell’Intelligenza Artificiale in ambito giudiziario:
- Supervisione umana: l’Intelligenza Artificiale deve essere sorvegliata da un essere umano che ne verifichi il rispetto dei diritti umani, mettendo al centro di ogni utilizzo il benessere dall’utente
- Robustezza e sicurezza: l’Intelligenza Artificiale deve basarsi su algoritmi sicuri e devono essere controllate possibili azioni illecite
- Privacy, controllo e gestione dei dati: l’Intelligenza Artificiale deve garantire la protezione dei dati personali degli utenti
- Trasparenza: l’Intelligenza Artificiale deve essere tracciata e deve poter dimostrare i processi e le operazioni compiute dall’algoritmo
- Diversità, correttezza, assenza di discriminazione: l’Intelligenza Artificiale deve essere accessibile a tutti e bisogna evitare che gli algoritmi possano presentare modelli di governance inadatti
- Benessere sociale e ambientale: l’Intelligenza Artificiale deve avere un impatto controllato su ambiente e società e deve essere utilizzata solo se sostenibile
- Responsabilità: l’Intelligenza Artificiale deve essere sempre sottoposta a una verifica dei sistemi per evitare violazioni dei diritti fondamentali
Sia a livello etico che economico, in ambito lavorativo è poi necessario capire quanto l’Intelligenza Artificiale possa sostituirsi ai lavoratori in diversi campi, tra cui anche la programmazione e lo sviluppo web.
Da tempo è ormai possibile sviluppare software tramite tool senza o con parziale conoscenza della programmazione. Ciò è possibile ad esempio grazie a sistemi di sviluppo no-code e low-code, che abbiamo trattato in un articolo di blog dedicato.
Anche l’Intelligenza Artificiale è in grado di scrivere codice in autonomia, ma soprattutto ha la capacità di apprendere imparando dai propri errori, migliorando continuamente le proprie capacità, anche in quest’ambito. Software come ChatGPT e AlphaCode hanno grandi potenzialità in questo senso. Sono ad esempio in grado di accelerare la scrittura del codice grazie all’auto-completamento che suggerisce linee di codice in tempo reale, automatizzare azioni ripetitive, identificare e correggere errori nel codice, tradurre modelli grafici in codice per lo sviluppo di app e siti web e contribuire alla sicurezza informatica, individuando vulnerabilità e dando soluzioni.
Queste caratteristiche originano visioni pessimistiche per quanto concerne il ruolo che l’Intelligenza Artificiale può assumere nei confronti della figura dello sviluppatore.
Potrà ancora esistere in futuro la figura dello sviluppatore, o verrà integralmente sostituita dall’Intelligenza Artificiale?
Secondo una visione più ottimistica, l’Intelligenza Artificiale collaborerà con l’uomo, potenziandone le competenze e migliorando la produttività, semplificando il processo di scrittura del codice. Secondo una visione più pessimistica, invece, nel giro di una decina d’anni il ruolo del programmatore sarà solo quello di controllare le operazioni che l’Intelligenza Artificiale farà al posto suo.
La nostra visione? Crediamo che una collaborazione tra le due parti – umana e tecnologica – sia necessaria, ma la creatività e il senso critico sono elementi insostituibili ed esclusivamente umani. Questi elementi prettamente umani sono ad esempio indispensabili in tutte le fasi del lavoro precedenti la scrittura di codice vera e propria: è difficile immaginare nell’immediato futuro uno scenario in cui una macchina possa dialogare con chi richiede lo sviluppo di software, capirne appieno le necessità, i problemi e i vincoli per proporre poi la soluzione migliore. L’Intelligenza Artificiale può supportare il programmatore nella scrittura di codice, ma non può – almeno per ora – sostituirlo nelle fasi di interazione umana, dalla gestione della richiesta alla ricezione di feedback, o simularne la comprensione empatica e le capacità di comunicazione.
Se è poi vero che l’Intelligenza Artificiale è un valido strumento di supporto nella scrittura di codice, ad oggi essa deve essere utilizzata da un essere umano che è già in grado di sviluppare, e che sa quindi valutare se il codice proposto è valido e funzionale oppure no.
Inoltre, anche lo sviluppo è in parte definibile come un lavoro o un processo creativo: descrivere ciò che va integrato e avere la visione del contesto in cui sta implementando il codice sono ad oggi prerogative umane, appannaggio dello sviluppatore.
L’Intelligenza Artificiale cambierà il lavoro degli sviluppatori, riducendo (o anche eliminando) le operazioni più semplici e ripetitive, così che gli sviluppatori possano concentrarsi su attività a maggiore valore aggiunto. Per quanto l’Intelligenza Artificiale sarà sempre più accurata e capace, rimarrà un supporto per gli sviluppatori, non un loro sostituto: amplierà le possibilità a loro disposizione e li aiuterà a svolgere il loro lavoro in modo più efficiente e creativo.