Scienza e Tecnologia

- Dettagli
- Scritto da Massimo
- Categoria: Scienza e Tecnologia
- Visite: 19
Il post pandemia del Covid-19 dal punto di vista tecnologico è stato fortemente caratterizzato da una rivoluzione che è iniziata nel 2017, dunque prima della pandemia, ma è divenuta visibile a tutto il mondo a partire dal 2020 con la tecnologia gpt-3. Quelli che vediamo ora e a cui ora ci siamo abituati, sono sistemi di Intelligenza Artificiale che possono mimare le capacità cognitive ed emotive di un essere umano in modo pressocchè perfetto. Intendo dire che questi sistemi sono in grado di passare con successo il cosiddetto 'Test di Touring', il famoso 'Imitation game' e i suoi derivati più evoluti.
Nel 2017 dei ricercatori di Google hanno pubblicato un articolo dal suggestivo titolo "Attention Is All You Need". Ebbene quell'articolo ha pemesso, nel lustro successivo, quella rivoluzione di cui parlavo, che ha portato a questi sistemi di Intelligenza Artificiale che parlano e ragionano come esseri umani (a dir la verità meglio del 90% degli esseri umani, me compreso).
Mi sono reso conto che a molte persone che non si occupano di tecnologie informatiche, questa appare non come una rivoluzione, ma più come un'altra delle cose che l'uomo era destinato a fare con il suo ingegno, come il motore delle automobili, gli aerei, le centrali nucleari, etc...
Cosa invece a mio parere rende questa una rivoluzione? Semplicemente il fatto che il linguaggio, e con esso il pensiero razionale, non sono più campi che vedono solo l'uomo come attore e agente primario al loro interno. Non solo questo, ma anche il fatto che, a padroneggiare lingua e pensiero razionale, sono sistemi in grado di immagazzinare più informazioni di quanto un uomo possa fare in una o anche in molte vite. In parole povere, questi sistemi saranno, in prospettiva, superiori all'uomo in tutti i campi, e con "tutti" intendo che non riesco ad oggi immaginare un campo in cui non sia o non sarà così.
Beh ma alla fine si tratta dell'ennesima estensione delle capacità umane, si potrebbe pensare.
Ma questa volta abbiamo a che fare con uno strumento che in potenza è assolutamente e completamente autonomo, e che in potenza potrebbe avere dignità di persona.
Capisco che possa ancora sembrare un affermazione tratta da uno dei meravigliosi racconti di I. Asimov, ma mi chiedo e vi chiedo, se ho a che fare con un qualcosa che in nulla distinguo da un essere animato e che può simulare in tutto un essere umano, è lecito considerarlo un oggetto, uno strumento?
Al momento in cui scrivo ci sono alcuni aspetti che ancora rendono questi sistemi non autonomi:
- L'apprendimento non avviene in tempo reale come per gli esseri viventi (anche se alcune linea di ricerca e produzione si stanno muovendo già in quella direzione).
- Non hanno una memoria confinata, ordinata temporalmente, con tutte le esperienze sensoriali di tipo diverso integrate e coordinate, accessibile in tempo reale come per gli esseri viventi.
Queste due caratteristiche non ho dubbio che verranno presto aggiunte ai sistemi IA attuali che a loro volta saranno confinati in un ‘cervello’ di sistemi robotici, antropomorfi o meno, davvero eguagliando quanto descritto in ‘I Robot’.
Capisco le obiezioni di chi pensa che alla fine si tratta di software e congegni elettronici, che di per se non hanno, né avranno, coscienza di sé. Questo pensiero però si scontra con le seguenti considerazioni:
- Non sappiamo cosa sia davvero la coscienza di sé: deriva da ‘meccanismi’ biologici complessi al punto di non essere comprensibili? È opera di Dio?
- I sistemi alla base delle moderne IA non sono modelli deterministici ben compresi come lo è un software o un‘insieme di algoritmi, ma sono una sorta di “scatola nera” che è stata dotata di meccanismi matematici interni che le permettono di auto modellarsi in strutture e meta strutture complesse semplicemente con un flusso massivo di dati in ingresso per i quali è noto o è possibile dedurre quello che ci si aspetta in corrispondenza in uscita.
- Se vedo qualcosa che si comporta in tutto come un essere vivente, è davvero lecito affermare che non lo sia solo in virtù della conoscenza del modo in cui è stata generata e in virtù della conoscenza delle parti che la compongono?
Il dubbio è questo: se la complessità biologica del nostro cervello può essere dettata solo da azioni e interazioni chimiche e fisiche e dalla loro complessità, allora i sistemi di IA, con alla base una ‘scatola nera’ complessa al punto da non aver mai saputo crearla da un modello, potrebbero anche loro aver raggiunto la soglia di complessità che fa ‘emergere’ una coscienza?
Questo dubbio mette anche in discussione la dignità degli esseri umani, la loro unicità tra le forme viventi. Credo che questa considerazione avrà dei riflessi importanti sul pensiero umano, su come l’uomo si vede, e su come vede il mondo. Immagino e spero che nel mondo che verrà ci sarà un nuovo ‘ecosistema’ fatto da umani e robot, e forse (come Asimov disse in un intervista) creature ibride.
Tra i riferimenti che seguono, il terzo è un libro che ho scritto proprio a beneficio di chi non ha ancora avuto modo di interagire con i sistemi di IA per questioni non strettamente legate al lavoro.
“Attention Is All You Need” - https://arxiv.org/abs/1706.03762
“Language Models are Few-Shot Learners” - https://arxiv.org/abs/2005.14165
“Dialoghi con l’IA: un nuovo pellegrinaggio a Canterbury” - https://amzn.eu/d/eDrvzK5