HOME PAGE

lunedì 4 novembre 2019

La rivoluzione informatica (parte quarta): gli anni ’70 – di Andrea Tundo

In prima battuta, va ricordato che negli anni ’60 -già trattati nel precedente articolo di questa rubrica di Maison Ragosta- furono raggiunte innovazioni tecniche e teoriche riguardanti soprattutto lo sviluppo delle reti informatiche, ovvero la comunicazione fra più computer, e il potenziamento di questi ultimi, che passarono da essere semplici macchine di calcolo a interfaccia più o meno intelligenti in grado di compiere diverse funzioni contemporaneamente. Va ricordato inoltre che l’estensione dell’utilizzo del computer, in questo periodo, non va oltre nicchie specializzate, come le multinazionali e gli alti apparati burocratici e militari dello stato.
Gli anni ‘70 però contengono al loro interno un’aria ben diversa, un’aria di libertà e condivisione in tutti i campi del sapere: nelle arti, nella politica, nel comportamento dell’individuo, nelle scienze e così ugualmente nella nostra ancora giovane informatica. Infatti, da un gruppo di giovani di varia estrazione culturale prendono avvio l’avventura del centro di ricerca di Palo Alto e quello che sarà uno tsunami informatico-commerciale dovuto alla visione e realizzazione del personal computer come lo conosciamo oggi…, non solo una macchina da calcolo, ma anche uno strumento di comunicazione tra le persone, che peraltro non richiede per il suo funzionamento l’ausilio di tecnici specializzati. Qualcosa, insomma, che nelle visioni dei più illuminati, tra manager e matematici, tutti avrebbero dovuto avere………come poi hanno avuto!
In tal senso bisogna porre una particolare attenzione al lavoro di Steve Jobs, che non fu l’unico fautore di questa grande impresa visionaria né tantomeno l’unico genio in grado di prevederla, ma la sua figura, che negli anni ’90 diventò un’icona pop, è il simbolo di ciò che successe da quegli anni in poi: la massificazione delle tecnologie, che diverranno parte integrante del quotidiano, entreranno nelle case, negli uffici, nelle biblioteche, nelle scuole e così via sino a costituire l’oggetto di una delle nuove schiavitù. Non intendiamo in questa sede schierarci da una parte piuttosto che da un altra, ma sta di fatto che tale fenomeno, oggi, ha raggiunto il suo punto di saturazione dal punto di vista commerciale. Quasi tutta l’umanità infatti possiede un computer e/o un telefonino se non più di uno; inoltre la percezione di tale fenomeno si è in un certo senso invertita. Se di fatto sul finire degli anni 70’ avere un pc, vera e propria novità tecnologica, equivaleva a uno status symbol di persona indipendente e sganciata da determinate logiche del pensiero comune, oggi lo stesso vale per chi non ce l’ha, i quali sono veramente pochi. E se da un lato la commercializzazione su larga scala delle nuove tecnologie è stata spesso spinta grazie a una retorica pubblicitaria che ne esaltava i caratteri indipendenti rispetto agli apparati di potere e le grandi libertà che l’uomo medio ne avrebbe tratto, dall’altro si è diventati schiavi della tecnologia in sé e non tutti sono realmente in grado di calcolare se la propria vita possa effettivamente dirsi migliorata dopo questi cambiamenti. E’ questa una tra le nuove dipendenze, come lo fu la sigaretta nel dopoguerra. Bisogna in definitiva convivere con queste contraddizioni del consumismo ed eventualmente provare a chiarirsele, ma per farlo è necessario avere il quadro della situazione.
Ma torniamo sui nostri passi. La massificazione delle tecnologie è stata resa possibile, innanzitutto, dall’ottimizzazione dell’hardware, che diventa più piccolo e funzionale. L’invenzione dell’Apple 1, infatti, primo computer ad essere stato messo in commercio ad un prezzo accessibile a molti, era in sostanza una scheda madre alla quale andavano collegati alimentatore, tastiera e display. Il salto successivo sarà  quello di fondere questo circuito integrato con un televisore: nasce così il 5 giungo 1977 l’Apple 2. A partire da tale anno sono presenti tutti gli elementi del vero personal computer e per la prima volta un attrezzo informatico entra nel mercato di massa. Tutti i tentativi precedenti anche dell’IBM presentavano prezzi alti, una gestione operativa poco efficace ed efficiente e un utilizzo in molti casi hobbistico. E’ importante notare che questo enorme passo non viene compiuto da una compagnia accreditata come IBM, ma da un gruppo di giovani che avviano quest’attività in un garage di Cupertino e che pochi anni dopo verranno quotati in borsa. Si allude ovviamente alla Apple.
In Italia, su altro fronte, tra 1970 e il 1974, nasce a Novedrate (CO) il Centro Studi e Formazione per l’Europa dell’IBM, un polo informatico che poteva ospitare fino a 500 tra formatori, progettisti e discenti, il quale fu il fulcro operativo del processo di informatizzazione di gran parte del sistema bancario europeo e delle più grandi aziende in ambito commerciale ed industriale del Vecchio Continente. Un centro che rimase attivo fino al 2003, quando, come si vedrà, per gli ulteriori sviluppi matematico-scientifici di questo mondo, resero la struttura poco significativa sotto il profilo strategico e produttivo.
Sicché, negli anni ’70, in sintesi, se da un lato si ha il pieno sviluppo del processo di informatizzazione delle grandi strutture pubbliche e private, dove in ambito militare a seguito dei rilevanti progressi registrati si comincia a pensare di ridurre in maniera massiccia l’impiego del fattore umano; dall’altro, sebbene a livello embrionale, cominciano a prendere corpo le attrezzature informatiche domestiche, tra le quali il più rilevante è il personal computer, posto per la prima volta sul mercato  a titolo sperimentale da Olivetti nel 1957, ma che solo in questo decennio registreranno rilevanti e significativi progressi, che permetteranno, poi, all’avvio del nuovo decennio, nel 1981, l’ingresso sul mercato del primo vero computer da tavolo, l’IBM 5150, anche se si dovrà attendere il 1984 per averne uno nell’odierna accezione, targato questa volta dalla Apple di Steve Jobs.

Andrea Tundo

Nessun commento:

Posta un commento