
Cos’è AI e come funziona il machine learning
L’intelligenza artificiale ha negli ultimi anni raggiunto un grande successo, accelerando il boom tecnologico e digitale. Tutti sappiamo la sua indubbia utilità in moltissimi campi, fornendoci un valido supporto con notevole risparmio economico e di tempo.
Sorgono però alcuni interrogativi: sappiamo cosa accade nei retroscena della ricerca? Sappiamo come “pensa” AI? Soprattutto, ne conosciamo i limiti?
I limiti dell’intelligenza artificiale nel pensiero astratto
Il primo limite è che AI non è in grado di “pensare” in modo astratto. Essa manca di flessibilità nel reagire a piccoli cambiamenti o a nuovi problemi di applicazione. Non può riconoscere alcun collegamento logico in concetti astratti.
Esempio: se le immagini nel set di dati hanno pochi pixel, AI non li riconosce e non li classifica. Questo comporta conseguenze fatali e gravi difetti di qualità e sicurezza.
Sono stati fatti tentativi di inserire nel set dati degli errori con lo scopo di aumentare la capacità di apprendimento. Per ora i risultati non sono stati soddisfacenti. L’incapacità di adattarsi a circostanze cambiate si deve al fatto che AI impara ciò che è stato disposto nella programmazione.
L’apprendimento limitato e la mancanza di coscienza
La codifica fornisce conclusioni astratte in misura limitata, per questo motivo solo il riconoscimento di modelli è la sua migliore abilità. Gli esseri umani, al contrario, possono derivare conclusioni logiche e concetti astratti senza apprendere ogni problema da zero.
AI non può mettere in discussione le conclusioni o pensare in modo critico sulle cose. Essa non considera che il riconoscimento monotono non è più una sfida per lei. Non può cercare qualcosa di più impegnativo e magari da lì ripartire per una nuova sfida.
Questo meccanismo non si può replicare con gli algoritmi, in quanto AI non possiede una “coscienza”, non ha una sensazione di dolore o dei sentimenti. Non è possibile una simulazione di coscienza umana, né è chiaro come essa potrebbe essere “afferrata” organicamente.
Il problema della ricorsività e dell’automiglioramento
Un secondo limite è la ricorsività. Le macchine possono apprendere, diventare più “intelligenti”, ma non sono capaci di creare da sole una macchina più potente. AI non è capace di migliorare sé stessa.
Solo gli esseri umani possono usare la loro intelligenza cognitiva e associativa per costruire e programmare macchine perfezionate. L’apprendimento di AI è limitato all’aumento della competenza e alla velocità di apprendimento. Questo attualmente è un grosso limite.
Nonostante la capacità di elaborare enormi quantità di dati, AI non possiede ancora autocoscienza o capacità di migliorarsi senza l’intervento umano. Essa, per quanto avanzata, rimane uno strumento dipendente dalle capacità umane per la sua evoluzione e per superare le sue limitazioni.
Il problema della trasparenza e della “scatola nera”
Il terzo limite è rappresentato dal problema di trasparenza delle macchine. C’è un forte deficit nella tracciabilità del processo decisionale di AI. Non può essere illustrato come essa decide, in quanto raffigura e seleziona i diversi filoni dentro al processo di apprendimento per poi pervenire al risultato.
Tale selezione non può essere visualizzata, impedendo la trasparenza. Attualmente si sta lavorando per scomporre tale processo in strumenti AI, ma ci vorrà del tempo.
La mancanza di trasparenza delle decisioni di AI è un vero problema, una sorta di “scatola nera” ora inaccessibile che comporta gravi problemi etici e di responsabilità, specie in settori critici come la medicina, la sicurezza e la finanza.
È fondamentale quindi lavorare per rendere i sistemi di AI più trasparenti, per assicurare fiducia e accettazione da parte della società.
Pierluigi Seri
