Skip to main content
Seguici sui social:
Hai perso la password?

Ma che ne (s)AI?

Dalla selce scheggiata ai sistemi spaziali per andare sulla Luna, gli artefatti tecnologici hanno incorporato la conoscenza di coloro che li hanno realizzati, e con la loro stessa esistenza hanno giustificato la generazione di nuova conoscenza a proposito di un loro uso appropriato. Fino a che l’utente di un artefatto è chi l’ha realizzato, la conoscenza di uso può rimanere una conseguenza diretta della conoscenza di realizzazione.

Ma i processi di divisione del lavoro e di ‘complessificazione’ degli artefatti hanno indotto una progressiva separazione di questa originaria unità: se nel passato costruttore e utente erano la stessa persona o comunque condividevano la stessa conoscenza dell’artefatto, oggi la separazione è spesso compiuta, e chi usa un artefatto potrebbe essere ignaro di come lo si costruisce. E se la competenza è ciò che sappiamo fare – o riteniamo di saper fare – che cosa accade quando l’azione è mediata da artefatti che fanno al posto nostro?

Per esempio, saper usare un telefono cellulare è cosa ben diversa da saperlo progettare, e anzi quanto più si sottolinea l’importanza della facilità di uso – la user friendliness che in particolare ha guidato lo sviluppo delle interfacce grafiche dei computer degli Anni 80 del secolo scorso – tanto più l’unità originaria diventa irrecuperabile e gli artefatti diventano ‘scatole nere’ per i loro utenti, fino a inverare la terza legge di Clarke: “Qualunque tecnologia sufficientemente avanzata è indistinguibile dalla magia”.

Ma cosa succede a proposito di questa separazione tra ‘come si costruisce’ (e quindi, generalmente, anche ‘come funziona’) e ‘come si usa’ quando gli artefatti sono entità con funzioni che se realizzate da esseri umani non esiteremmo a considerare intelligenti? La domanda si applica in particolare ai chatbot, ‘macchine da conversazione’ come ChatGpt, Claude, Gemini… Sono sistemi talmente complessi, nella loro struttura e nella loro messa a punto attraverso addestramento, che il loro comportamento è solo parzialmente spiegabile anche dai loro stessi sviluppatori.

Tecnologie sempre più efficaci ed efficienti

Per cercare di mantenere un qualche genere di controllo cognitivo, e forse prima ancora psicologico ed emotivo, nella nostra relazione con i chatbot, finora li abbiamo tenuti a una distanza rassicurante sottolineando gli errori che commettono – così impropriamente chiamati ‘allucinazioni’ – e concludendone che per questo il nostro pensiero critico rimane non sostituibile.

Ma questa distanza è fragile: cosa (ci) succederà quando scopriremo che queste entità sbagliano sempre meno e conoscono sempre più e meglio di noi? Che cosa del nostro pensiero delegheremo a esse e che cosa decideremo invece di mantenere per noi, e con quali ragioni, ammettendo che anche nel pensiero gli artefatti tecnologici potrebbero diventare più efficaci ed efficienti di noi? E, prima ancora, saremo in grado di prendere questa decisione?

Perché delegare integralmente il pensiero induce a smettere di esercitarlo, il rischio non è solo che l’Intelligenza Artificiale ci renda stupidi, ma anche – e prima ancora – che renda socialmente superfluo esserlo o non esserlo. Sono questioni critiche per il futuro della nostra società: questioni su cui lavorare oggi.

L’articolo Ma che ne (s)AI? proviene da Parole di Management.