Ada Lovelace, Alfred Edward Chalon [Public domain], via Wikimedia CommonsUno strano paradosso insegue le capacità degli italiani. Ma dei singoli, più che del Paese. Lo dimostrano spesso i cosiddetti cervelli in fuga, lo dimostra la fresca nomina ai vertici finanziari di Apple di un italiano: Luca Maestri. Ma storicamente non mancano esempi, a partire dalla Programma 101, primo computer da tavolo al mondo nato ai primi anni ’60 e presentato a New York nel 1965. Quando la HP lancerà la 9100 – in pratica una copia dell’apparecchio della Olivetti – accetterà di versare 900 mila dollari a Ivrea per l’utilizzo del brevetto. E amen, la storia passò di mano. Per carità di patria evito di rinverdire le polemiche su Meucci e Bell. Semmai per uno strano gioco della storia, gli italiani si trovano spesso tra i protagonisti – o coprotagonisti – di passi epocali. Come non ricordare Federico Faggin, padre del primo microprocessore (addirittura siglando quel 4004 Intel con le sue iniziali), che iniziò la sua carriera alla Olivetti di Borgolombardo, passò per la fisica all’università, per approdare alla SGS (nata nel 1957) – azienda partecipata  dalla casa di Ivrea, da Telettra e poi (al solito) abbandonata – per trasferirsi negli Usa, per un aggiornamento con la partner societaria Fairchild, dove rimase e diede vita all’invenzione attorno alla quale “ruota” oggi quasi tutto il mondo digitale?

1840: Menabrea incontra Babbage

Tra i patiti di tecnologia, infatti, l’8 marzo imminente potrebbe essere invece l’occasione per ricordare la figura, certo straordinaria, della figlia di Byron: Ada Lovelace. Questa donna è considerata l’autrice del primo algoritmo della storia. Ma sfugge, talora, che fu pure “italiana” l’occasione per sviluppare – sotto forma di una nota ad testo tradotto dal francese all’inglese – il primo programma per calcolatori. Era stato infatti l’inventore Charles Wheatstone a chiederle di tradurre per la rivista Taylor’s Scientific Review un intervento al secondo congresso dei “filosofi” – filosofi, sia chiaro, tanto per intenderci su quale radice abbia l’informatica – tenutosi nel settembre 1840 all’Accademia delle Scienze di Torino.

Al congresso fu invitato, dal matematico e astronomo Giovanni De Plana, Charles Babbage, passato poi alla storia per aver gettato le basi dei calcolatori. Il matematico parlò della sua idea di “macchina analitica”. Incaricato di ascoltarlo fu un brillante giovane ingegnere, Luigi Federico Menabrea. Sì, proprio lui, che quasi trent’anni dopo diverrà presidente del consiglio del Regno d’Italia. Due anni dopo a Ginevra presenterà una relazione in francese sulla macchina di Babbage. L’anno successivo questo lavoro fu tradotto in inglese e ampliato – con le celebri note contenenti il primo algoritmo della storia, alla nota G, per il calcolo dei numeri di Bernoulli – proprio da Ada Lovelace. L’articolo si intitolava “Sketch of the Analitycal Engine Invented” e correggeva anche alcuni errori di Menabrea. E così anche questa tappa della storia dell’informatica – come la Programma 101, sviluppata a Pregnana Milanese, ma riconducibile a Ivrea – passa in qualche modo per il Piemonte.

Verso la fine dell’eredità matematica

L’evoluzione di questa forma di pensiero, a carattere meccanico-matematico, non è stata priva di conseguenze. Infatti i moderni computer sono eredi di una linea genealogica che deriva dalle capacità di calcolo matematico. I computer discendono dai calcolatori: ragionano per numeri. Usano i chip eredi di quello creato da Faggin, ulteriore passo in avanti di macchine che prima erano state a valvole e poi a transistor (il primo cervello elettronico completamente transistorizzato fu realizzato ai Bell Labs nel 1954 da un team guidato da Jean H. Felker, uno dei protagonisti delle previsioni di “Il futuro è sempre esistito“, qui il sito del libro). Ma mondo è più complesso: ecco allora che si stanno sviluppando chip neuronali, modellati sul cervello umano.

Scrive Tim Simonite:

«I computer moderni sono un’eredità dei calcolatori, specializzati nel macinare numeri», sostiene Dharmendra Modha, un ricercatore di IBM Research, ad Almaden, in California. «Il cervello si è invece evoluto nel mondo reale».

E ancora:

«I progressi delle neuroscienze e della tecnologia dei chip hanno reso possibile la produzione di congegni che, almeno su piccola scala, elaborano i dati allo stesso modo del cervello dei mammiferi. Questi chip “neuromorfici” potrebbero rappresentare il pezzo mancante di molti promettenti, ma incompleti, progetti di intelligenza artificiale, come le automobili che si guidano da sole in qualsiasi condizione o gli smartphone che interagiscono nella conversazione».

E questo sarebbe una frattura nella storia del computer. Insomma, un salto in avanti, del quale non è facile prevedere le conseguenze. A meno di non affidarsi alle capacità predittive della fantascienza.