Dopo una lunga pausa, eccoci ritrovati con un nuovo appuntamento della nostra rubrica sulla rivoluzione informatica, in cui andremo a seguire gli importanti sviluppi del computer e di internet negli 80’, cogliendo in particolare quelle dinamiche che hanno influenzato, più di tutte, il modo in cui queste due tecnologie si sono propagate nel mondo nei decenni successivi sino ad oggi.
È neccesario a questo punto fare un breve rimando a quanto sottolineato nell’articolo precedente, quindi nel decennio attinente agli anni '70: solo allora venne alla luce il microprocessore, che permetterà, come vedremo, la creazione dei primi veri e propri personal computer, ovvero un device di dimensioni piccole e a basso costo, adatto dunque ad una diffusione capillare negli uffici, nelle università e tra la popolazione, in quanto, come già evidenziato, i computer fino agli anni 60’ erano solo di ausilio degli alti apparati burocrati e militari dello Stato, anzi è proprio grazie all’ organismo militare americano “ARPA” che dobbiamo la creazione dei primi collegamenti fra computer e cioè alla nascita del primordiale internet.
Dunque, cosa è avvenuto negli anni 80’, sono stati questi gli anni della prima grande diffusione dell’informatica personale. Le basi teoriche c’erano tutte. Quello che avvenne fu semplicemente la popolarizzazione a prezzi accessibili dei primi «personal computer» o «home computer» e lo sviluppo di programmi generici che ne rendevano l’uso attraente, anche appunto alla singola persona nel lavoro quotidiano o nello svago. Il tipico computer di quell’epoca aveva quindi normalmente un interprete (cioè un programma che traduce in linguaggio macchina istruzioni formulate in linguaggio simbolico) per un linguaggio di programmazione e veniva completato a seconda delle necessità, con programmi applicativi: videoscrittura, foglio di calcolo, database. In ogni caso era impossibile cominciare ad usare un computer se prima non se ne studiavano i manuali: in parte perché per qualsiasi impiego più specializzato usare un computer significava programmarlo, in parte perché non esisteva alcuno standard e ogni programma già pronto era una storia a sé, in parte ancora perché nozioni oggi imparate spontaneamente nella culla erano novità inaudite («posso tornare indietro e correggere ciò che ho scritto? davvero?»), in parte, per chiudere, perché venivano fatti pochissimi sforzi per rendere «intuitivo» l’uso di un programma.
Sembrerà strano, ma di fronte alla difficoltà di questo nuovo ingresso c’era chi cantava vittoria: per esempio Neil Postman, che nel suo celebre The Disappearance of Childhood vedeva nell’informatica il ritorno nella storia dell’Umanità di una competenza difficile che (per dirla in due parole) avrebbe ridato senso alle istituzioni educative e restituito alla minore età il suo carattere di periodo di apprendimento e crescita. Insomma l’accesso a tecnologie così intriganti avrebbe costretto tutti ad impegnarsi di più ed uscire fuori dalla trappola di una società tayloristica, sistema che abbiamo già analizzato, qui in Maison Ragosta negli articoli precedenti. Le cose non sono andate così. La fine degli anni ‘80 vede la rapida diffusione delle interfacce grafiche, che in un sol colpo annullano tutti i motivi detti prima: ora ogni cosa assomiglia alla vita reale, si impone lo standard WIMP (window, icon, menu, pointer), diventa un imperativo la discoverability, cioè la possibilità di «scoprire» autonomamente tutte le funzioni esistenti, e tutto viene progettato in modo da rendere superflui i manuali, mentre la programmazione, irriducibile com’è a manipolazioni grafiche, viene sempre più percepita come qualcosa di esoterico. Mentre prima la preoccupazione era soprattutto che un programma fosse veloce da usare una volta imparato, ora si vuole che esso possa essere usato senza bisogno di impararlo: una cosa completamente diversa.
Interpretazione esagerata? Niente affatto! Ecco che arriva Steve Jobs! Su questo erano esattamente basati i messaggi pubblicitari del primo Macintosh nel 1984, uno straordinario e meritato successo basato sullo slogan: non dovrai imparare come funziona il computer, perché noi abbiamo insegnato al computer come funzioni tu. Gli anni in cui si afferma l’informatica personale sono poi anche quelli in cui si diffonde Internet, cosa che merita un discorso a sé. Basti però dire che avviene qualcosa di paragonabile: un canale dapprima pensato per poche élites diventa improvvisamente ubiquitario e facile.
Inizia in questo periodo a svilupparsi Internet in senso stretto, inizia proprio ad essere utilizzata la parola Internet, con il significato dello spazio nella rete in cui i computer comunicano tra loro trasferendosi dati. Per intenderci, in questo periodo nascono i protocolli che ancora reggono i controlli di trasmissione dati fra computer, ma nascono anche i domini, nascono i primi software di gestione delle mail. Non siamo ancora nell’era del World Wild Web (il www.), ma siamo molto vicini; nascono reti di computer autonome anche in tutta Europa; in Francia in particolare si sviluppa il Minitel, che diventa la più grande rete di computer fuori dagli USA. Per quanto concerne l’Italia, il nostro primo collegamento ad internet avviene nel 1986 dai centri di ricerca della Normale di Pisa. Insomma, collegarsi a Internet è ancora qualcosa di complesso, ma il dado è tratto e la crescita di questa tecnologia procede ormai in maniera esponenziale, le tante basi teoriche e visioni utopiche messa a punto sin dagli anni 30’ da matematici, fisici e qualche letterato stanno divenendo realtà. Nel 1989, Internet conta ben 100.000 computer connessi in grado di collegarsi alla rete.
Nel prossimo appuntamento, nell’evoluzione informatica del decennio 90’, si farà un viaggio su due binari da un lato la massificazione di internet e l’introduzione di quelle invenzioni che ne hanno permesso lo sviluppo come lo conosciamo oggi, e dall’altro all’utilizzo dei computer come potenti macchine di calcolo e controllo, al servizio delle funzioni del Potere e della Scienza.
Andrea Tundo
Nessun commento:
Posta un commento