In prima
battuta, va ricordato che negli anni ’60 -già trattati nel precedente articolo
di questa rubrica di Maison Ragosta-
furono raggiunte innovazioni tecniche e teoriche riguardanti soprattutto lo
sviluppo delle reti informatiche, ovvero la comunicazione fra più computer, e il potenziamento di questi
ultimi, che passarono da essere semplici macchine di calcolo a interfaccia più
o meno intelligenti in grado di compiere diverse funzioni contemporaneamente.
Va ricordato inoltre che l’estensione dell’utilizzo del computer, in questo periodo, non va oltre nicchie specializzate, come
le multinazionali e gli alti apparati burocratici e militari dello stato.
Gli anni ‘70
però contengono al loro interno un’aria ben diversa, un’aria di libertà e
condivisione in tutti i campi del sapere: nelle arti, nella politica, nel
comportamento dell’individuo, nelle scienze e così ugualmente nella nostra
ancora giovane informatica. Infatti, da un gruppo di giovani di varia
estrazione culturale prendono avvio l’avventura del centro di ricerca di Palo Alto e quello che sarà uno tsunami informatico-commerciale dovuto
alla visione e realizzazione del personal
computer come lo conosciamo oggi…, non solo una macchina da calcolo, ma
anche uno strumento di comunicazione tra le persone, che peraltro non richiede
per il suo funzionamento l’ausilio di tecnici specializzati. Qualcosa,
insomma, che nelle visioni dei più illuminati, tra manager e matematici, tutti
avrebbero dovuto avere………come poi hanno avuto!
In tal senso
bisogna porre una particolare attenzione al lavoro di Steve Jobs, che non fu
l’unico fautore di questa grande impresa visionaria né tantomeno l’unico genio
in grado di prevederla, ma la sua figura, che negli anni ’90 diventò un’icona pop, è il simbolo di ciò che successe da
quegli anni in poi: la massificazione delle tecnologie, che diverranno parte
integrante del quotidiano, entreranno nelle case, negli uffici, nelle
biblioteche, nelle scuole e così via sino a costituire l’oggetto di una delle
nuove schiavitù. Non intendiamo in questa sede schierarci da una parte
piuttosto che da un altra, ma sta di fatto che tale fenomeno, oggi, ha
raggiunto il suo punto di saturazione dal punto di vista commerciale. Quasi
tutta l’umanità infatti possiede un computer e/o un telefonino se non più di
uno; inoltre la percezione di tale fenomeno si è in un certo senso invertita. Se
di fatto sul finire degli anni 70’ avere un pc, vera e propria novità
tecnologica, equivaleva a uno status
symbol di persona indipendente e sganciata da determinate logiche del
pensiero comune, oggi lo stesso vale per chi non ce l’ha, i quali sono
veramente pochi. E se da un lato la commercializzazione su larga scala delle
nuove tecnologie è stata spesso spinta grazie a una retorica pubblicitaria che
ne esaltava i caratteri indipendenti rispetto agli apparati di potere e le
grandi libertà che l’uomo medio ne avrebbe tratto, dall’altro si è diventati
schiavi della tecnologia in sé e non tutti sono realmente in grado di calcolare
se la propria vita possa effettivamente dirsi migliorata dopo questi
cambiamenti. E’ questa una tra le nuove dipendenze, come lo fu la sigaretta nel
dopoguerra. Bisogna in definitiva convivere con queste contraddizioni del
consumismo ed eventualmente provare a chiarirsele, ma per farlo è necessario
avere il quadro della situazione.
Ma torniamo sui
nostri passi. La massificazione delle tecnologie è stata resa possibile,
innanzitutto, dall’ottimizzazione dell’hardware,
che diventa più piccolo e funzionale. L’invenzione dell’Apple 1, infatti, primo
computer ad essere stato messo in commercio ad un prezzo accessibile a molti,
era in sostanza una scheda madre alla
quale andavano collegati alimentatore, tastiera e display. Il salto successivo sarà quello di fondere questo circuito integrato
con un televisore: nasce così il 5 giungo 1977 l’Apple 2. A partire da tale anno sono presenti tutti gli elementi
del vero personal computer e per la
prima volta un attrezzo informatico entra nel mercato di massa. Tutti i
tentativi precedenti anche dell’IBM
presentavano prezzi alti, una gestione operativa poco efficace ed efficiente e
un utilizzo in molti casi hobbistico. E’ importante notare che questo
enorme passo non viene compiuto da una compagnia accreditata come IBM, ma da un gruppo di giovani che
avviano quest’attività in un garage di Cupertino e che pochi anni dopo verranno
quotati in borsa. Si allude ovviamente alla Apple.
In Italia, su
altro fronte, tra 1970 e il 1974, nasce a Novedrate (CO) il Centro Studi e Formazione
per l’Europa dell’IBM, un polo
informatico che poteva ospitare fino a 500 tra formatori, progettisti e
discenti, il quale fu il fulcro operativo del processo di informatizzazione di
gran parte del sistema bancario europeo e delle più grandi aziende in ambito
commerciale ed industriale del Vecchio Continente. Un centro che rimase attivo
fino al 2003, quando, come si vedrà, per gli ulteriori sviluppi
matematico-scientifici di questo mondo, resero la struttura poco significativa
sotto il profilo strategico e produttivo.
Sicché, negli
anni ’70, in sintesi, se da un lato si ha il pieno sviluppo del processo di
informatizzazione delle grandi strutture pubbliche e private, dove in ambito
militare a seguito dei rilevanti progressi registrati si comincia a pensare di
ridurre in maniera massiccia l’impiego del fattore umano; dall’altro, sebbene a
livello embrionale, cominciano a prendere corpo le attrezzature informatiche
domestiche, tra le quali il più rilevante è il personal computer, posto per la prima volta sul mercato a titolo sperimentale da Olivetti nel 1957, ma
che solo in questo decennio registreranno rilevanti e significativi progressi,
che permetteranno, poi, all’avvio del nuovo decennio, nel 1981, l’ingresso sul
mercato del primo vero computer da
tavolo, l’IBM 5150, anche se si dovrà
attendere il 1984 per averne uno nell’odierna accezione, targato questa volta
dalla Apple di Steve Jobs.
Andrea Tundo
Nessun commento:
Posta un commento