HOME PAGE

mercoledì 27 luglio 2022

La Rivoluzione Informatica (parte sesta): gli anni '90 - di Andrea Tundo

 

         Seguendo gli sviluppi di ciò che è stato introdotto la parte precedente, la seconda metà degli anni '80 e i primi anni '90 sono stati caratterizzati dai personal computer: i pc si diffondono nella gran parte delle case, con un crollo dei prezzi e un’ulteriore miniaturizzazione delle componenti, essi si avviano a diventare un oggetto imprescindibile della vita quotidiana. Ma sono solo  lo sviluppo e la diffusione di Internet che, alla fine degli anni Novanta, ne ampliano notevolmente le funzione e l'ambito di utilità.

       Dunque negli anni 90’ siamo nella fase di sviluppo della rete, dell’internet, che segna l’era dell'informatica distribuita, con il sogno di portare tutto il potenziale della tecnologia sulle scrivanie degli utenti. Il modello organizzativo va di pari passo con la mondo della tecnologia, e infatti questo è stato il periodo del decentramento. Da qui, non ci interessa sapere dove sono le applicazioni o dove risiedono i dati. L'importante è avere accesso a ciò che ci serve nel modo e nel momento giusto. In un certo senso, tutte le risorse informatiche possono essere in rete.

      Inizia ad emergere così un modello informatico veramente nuovo, simile a quello che caratterizza, per esempio, la distribuzione dell'energia. Nessuno si preoccupa di chi ci eroga la corrente elettrica: basta che sia disponibile quando serve. Quindi in maniera analoga a come giriamo la manovella del gas o premiamo l’interruttore della luce, digitiamo una qualche cosa sulla trastiera con la speranza di trovarla in rete.

     Questa assoluta rivoluzione è resa possibile dalla nascita del Word Wide Web, ovvero il principale servizio di internet, quella “tela” sulla quale attraverso i protocolli di rete viaggiamo in sicurezza, messo a punto dall’informatico Tim Berners Lee al CERN di Ginevra, sviluppando le teorie sull’ Iper-testo di Vannevar Bush. Quello che bisogna comprendere è che il WWW è la prima rete aperta al pubblico, prima di essa internet era sia formalmente che praticamente accessibile solo a centri universitari e governativi, studenti e grandi società private.

     In breve tempo tutti comprendono le potenzialità di una rete internet aperta, e cominciano a svilupparsi vari terminali, i cosidetti Broswer o Motori di Ricerca, per accedervi. Presto nascerà Mosaic, motore di ricerca che venne creato presso il National Center for Supercomputing Applications (NCSA), nell’Università dell’Illinois Urbana-Champaign, dall’informatico Marc Andreessen. Si tratta del primo browser web popolare e il primo antenato di Mozilla Firefox.

     NCSA Mosaic girava su computer Windows, era facile da usare e forniva accesso alle prime pagine web a chiunque avesse un PC, chat room e raccolte di immagini. L’anno successivo (1994), Andreessen fondò Netscape e distribuì Netscape Navigator al pubblico. Ebbe un enorme successo e fu il primo browser per tutti. Ha inizio la Guerra dei Broswer:

      Nel 1995, Netscape Navigator non rappresentava l’unico modo per andare online. Il gigante del software per computer Microsoft ottenne la licenza del vecchio codice Mosaic e creò la propria finestra sul Web, Internet Explorer. Il suo rilascio scatenò una guerra. Netscape e Microsoft lavorarono febbrilmente per creare nuove versioni dei loro programmi, ciascuno cercando di superare l’altro con prodotti migliori e più veloci. Netscape creò e distribuì JavaScript, offrendo ai siti web potenti capacità di elaborazione che prima non avevano. (Crearono anche il famigerato < blink > tag.) Microsoft rilanciò con i fogli di stile, Cascading Style Sheets (CSS), che sono poi diventati lo standard di progettazione delle pagine web. In seguito Microsoft, si assicurò il dominio, iniziando a distribuire Internet Explorer con il proprio sistema operativo Windows. In 4 anni raggiunse il 75% del mercato e nel 1999 il 99%. Insomma internet è divenuto un successo mondiale ed ha velocizzato le connessioni fra gli umani, ma è molto lontano da ciò che conosciamo oggi, le connessioni avvenivano ancora su linee analogiche, ogni minuto di connessione aveva un costo, la maggior parte dei siti internet erano composti da solo testo e la stragrande maggioranza degli individui utilizzava internet solamente per scaricare la posta elettronica.

     E’ inoltre importante ricordare che internet fino a questo momento è stato sostenuto finanziariamente dalla National Science Foundation e varie restrizioni ne impedivano ancora un suo uso commerciale. Ora L'informazione comincia a diventare sempre più un'attività economica, giacché industrie ed istituzioni sono coinvolte nella raccolta, elaborazione, produzione, trasmissione e distribuzione dell'informazione. Fra gli eventi più rilevanti, và menzionata la creazione di Napster, la prima applicazione web che permetteva di scaricare gratuitamente musica sul proprio computer (file-sharing). Napster avrà un impatto importante in termini di cosa si può fare con Internet, e l’idea di creare esperienze gratuite online plasmerà in seguito un ragazzino di nome Mark Zuckemberg che fonderà Facebook. Inoltre, la combinazione di motori di ricerca, browser grafici e provider di servizi web ha permesso la nascita degli e-commerce e l’inizio di quel processo che ad oggi ha portato a farci compiere la maggior parte dei nostri acquisti online, i più importanti fra tutti Amazon ed Ebay che vengono fondate proprio in questi anni.

     Nonostante i limiti ancora evidenti di internet, è chiaro, che tutto ciò pone le basi necessarie per gli sviluppi tecnologici ed informatici successivi: da un lato, dei decenni a venire, vedremo la saturazione degli sviluppi delle reti ipertestuali, fino ad arrivare ad oggi e alla concezione degli spazi virtuali composti da realtà ed esperienze interattive (metaverso, realtà aumentata), dall’altro, con effetti molto più visibili nel breve periodo, la nascita della rete aperta porta con sè la questione dell’'enorme quantità di dati messa a disposizione di tutti. Di questo ci occuperemo subito.

    Come forse nel corso delle righe precedenti il lettore più acuto avrà potuto immaginare, parallelamente alla massificazione dell’utilizzo di internet e all’accumolo crescente di dati e contenuti nella rete, nascono i cosidetti Supercomputer, definizone con la quale si allude sia ai marchingegni atti a raccogliere e a sintetizzare un numero enrome di informazioni sia centri di ricerca organizzati a tale scopo. E’ chiaro che solo grandi aziende come IBM o grossi poli universitari potevano portare avanti azioni di questo tipo; sebbene ogni istituzione perseguisse fini diversi con lo studio dei dati della rete: dalle previsioni metereologiche, alla biologia, chimica e fisica computazionale, fino al data management, la maggior parte degli sforzi da qui a poco verrà focalizzata sulla difesa interna e la sicurezza dei sistemi informatici, due cose che vanno di pari passo con la digitalizzazione degli apparati di potere, da qui a poco infatti vi sarà l’attentato alle Torri Gemelle, evento che scuoterà nelle fondamenta il mondo occidentale. Riportando in seguito le parole dell’ex presidente di IBM Italia, Elio Catania:

“Il punto è nella nostra capacità di leggere attraverso tutti i dati disponibili in Internet quello che sta avvenendo. Non è certamente facile aggregare e disaggregare le enormi quantità di dati digitali presenti in rete per scoprire, per così dire trasversalmente, qualche tendenza o qualche stranezza nei campi più disparati, dalla biologia all'economia, dalla fisica alla medicina...

      Pensiamo a quante informazioni dovevano essere certamente annidate nella rete nei giorni che hanno preceduto l'attentato alle Torri Gemelle.
Se fossimo stati in grado di correlare in maniera intelligente le tantissime informazioni disponibili forse avremmo potuto prevenire un atto così barbaro.
Ecco, se io vedo una tendenza tra le più innovative in campo informatico è proprio nella capacità di sapere leggere con intelligenza le crescenti quantità di dati che la rete mette ogni giorno in linea.
      E non è solo una sicurezza militare, politica, sociale, economica, ma perfino biologica. Potremo capire meglio come si evolvono le diverse aree agricole, quali sono i rischi, dove può colpire il maltempo, o anche un'epidemia. Forse non è lontano il giorno in cui tutte queste informazioni ci consentiranno di combattere meglio malattie, non solo infettive ma soprattutto degenerative. Il confronto tra gli innumerevoli dati di ospedali, ricercatori, medici consentirà di leggere quello che oggi ancora ci sfugge.“

        Lo sviluppo di questa tipologia di pensiero, porterà alla nascita di applicazioni, software e sistemi capitanati da algoritmi intelligenti in grado di saper scindere e selezionare le informazioni e fornire l’output più adeguato agli stimoli ricevuti, la macchina assomiglia sempre più spaventosamente al cervello umano. Non solo, ma la macchina deve essere anche sempre più vicina e collegata all’uomo, essa deve essere un prolungamento delle sue reti neuronali, una prolungazione del corpo e della mente. Proprio in questi anni infatti, nascono i primi telefoni cellulari, fieri figli dei telefoni fissi, ma antenati degli Smartphone che nel prossimo capitolo (gli anni 2000) verranno messia punto e perfezionati, ancora una volta, da Steve Jobs, i quali faranno entrare gli umani nell’Era dell’iperconnessione. 

Andrea Tundo

giovedì 7 luglio 2022

La Rivoluzione Informatica (parte quinta): gli anni '80 - di Andrea Tundo

 

    Dopo una lunga pausa, eccoci ritrovati con un nuovo appuntamento della nostra rubrica sulla rivoluzione informatica, in cui andremo a seguire gli importanti sviluppi del computer e di internet negli 80’, cogliendo in particolare quelle dinamiche che hanno influenzato, più di tutte, il modo in cui queste due tecnologie si sono propagate nel mondo nei decenni successivi sino ad oggi.

    È neccesario a questo punto fare un breve rimando a quanto sottolineato nell’articolo precedente, quindi nel decennio attinente agli anni '70: solo allora venne alla luce il microprocessore, che permetterà, come vedremo, la creazione dei primi veri e propri personal computer, ovvero un device di dimensioni piccole e a basso costo, adatto dunque ad una diffusione capillare negli uffici, nelle università e tra la popolazione, in quanto, come già evidenziato, i computer fino agli anni 60’ erano solo di ausilio degli alti apparati burocrati e militari dello Stato, anzi è proprio grazie all’ organismo militare americano “ARPA” che dobbiamo la creazione dei primi collegamenti fra computer e cioè alla nascita del primordiale internet.

    Dunque, cosa è avvenuto negli anni 80’, sono stati questi gli anni della prima grande diffusione dell’informatica personale. Le basi teoriche c’erano tutte. Quello che avvenne fu semplicemente la popolarizzazione a prezzi accessibili dei primi «personal computer» o «home computer» e lo sviluppo di programmi generici che ne rendevano l’uso attraente, anche appunto alla singola persona nel lavoro quotidiano o nello svago. Il tipico computer di quell’epoca aveva quindi normalmente un interprete (cioè un programma che traduce in linguaggio macchina istruzioni formulate in linguaggio simbolico) per un linguaggio di programmazione e veniva completato a seconda delle necessità, con programmi applicativi: videoscrittura, foglio di calcolo, database. In ogni caso era impossibile cominciare ad usare un computer se prima non se ne studiavano i manuali: in parte perché per qualsiasi impiego più specializzato usare un computer significava programmarlo, in parte perché non esisteva alcuno standard e ogni programma già pronto era una storia a sé, in parte ancora perché nozioni oggi imparate spontaneamente nella culla erano novità inaudite («posso tornare indietro e correggere ciò che ho scritto? davvero?»), in parte, per chiudere, perché venivano fatti pochissimi sforzi per rendere «intuitivo» l’uso di un programma.

     Sembrerà strano, ma di fronte alla difficoltà di questo nuovo ingresso c’era chi cantava vittoria: per esempio Neil Postman, che nel suo celebre The Disappearance of Childhood vedeva nell’informatica il ritorno nella storia dell’Umanità di una competenza difficile che (per dirla in due parole) avrebbe ridato senso alle istituzioni educative e restituito alla minore età il suo carattere di periodo di apprendimento e crescita. Insomma l’accesso a tecnologie così intriganti avrebbe costretto tutti ad impegnarsi di più ed uscire fuori dalla trappola di una società tayloristica, sistema che abbiamo già analizzato, qui in Maison Ragosta negli articoli precedenti. Le cose non sono andate così. La fine degli anni ‘80 vede la rapida diffusione delle interfacce grafiche, che in un sol colpo annullano tutti i motivi detti prima: ora ogni cosa assomiglia alla vita reale, si impone lo standard WIMP (window, icon, menu, pointer), diventa un imperativo la discoverability, cioè la possibilità di «scoprire» autonomamente tutte le funzioni esistenti, e tutto viene progettato in modo da rendere superflui i manuali, mentre la programmazione, irriducibile com’è a manipolazioni grafiche, viene sempre più percepita come qualcosa di esoterico. Mentre prima la preoccupazione era soprattutto che un programma fosse veloce da usare una volta imparato, ora si vuole che esso possa essere usato senza bisogno di impararlo: una cosa completamente diversa.   

Interpretazione esagerata? Niente affatto! Ecco che arriva Steve Jobs! Su questo erano esattamente basati i messaggi pubblicitari del primo Macintosh nel 1984, uno straordinario e meritato successo basato sullo slogan: non dovrai imparare come funziona il computer, perché noi abbiamo insegnato al computer come funzioni tu. Gli anni in cui si afferma l’informatica personale sono poi anche quelli in cui si diffonde Internet, cosa che merita un discorso a sé. Basti però dire che avviene qualcosa di paragonabile: un canale dapprima pensato per poche élites diventa improvvisamente ubiquitario e facile.

     Inizia in questo periodo a svilupparsi Internet in senso stretto, inizia proprio ad essere utilizzata la parola Internet, con il significato dello spazio nella rete in cui i computer comunicano tra loro trasferendosi dati. Per intenderci, in questo periodo nascono i protocolli che ancora reggono i controlli di trasmissione dati fra computer, ma nascono anche i domini, nascono i primi software di gestione delle mail. Non siamo ancora nell’era del World Wild Web (il www.), ma siamo molto vicini; nascono reti di computer autonome anche in tutta Europa; in Francia in particolare si sviluppa il Minitel, che diventa la più grande rete di computer fuori dagli USA. Per quanto concerne l’Italia, il nostro primo collegamento ad internet avviene nel 1986 dai centri di ricerca della Normale di Pisa. Insomma, collegarsi a Internet è ancora qualcosa di complesso, ma il dado è tratto e la crescita di questa tecnologia procede ormai in maniera esponenziale, le tante basi teoriche e visioni utopiche messa a punto sin dagli anni 30’ da matematici, fisici e qualche letterato stanno divenendo realtà. Nel 1989, Internet conta ben 100.000 computer connessi in grado di collegarsi alla rete.

     Nel prossimo appuntamento, nell’evoluzione informatica del decennio 90’, si farà un viaggio su due binari da un lato la massificazione di internet e l’introduzione di quelle invenzioni che ne hanno permesso lo sviluppo come lo conosciamo oggi, e dall’altro all’utilizzo dei computer come potenti macchine di calcolo e controllo, al servizio delle funzioni del Potere e della Scienza.

Andrea Tundo