Seguendo gli sviluppi di ciò che è stato introdotto la parte precedente, la seconda metà degli anni '80 e i primi anni '90 sono stati caratterizzati dai personal computer: i pc si diffondono nella gran parte delle case, con un crollo dei prezzi e un’ulteriore miniaturizzazione delle componenti, essi si avviano a diventare un oggetto imprescindibile della vita quotidiana. Ma sono solo lo sviluppo e la diffusione di Internet che, alla fine degli anni Novanta, ne ampliano notevolmente le funzione e l'ambito di utilità.
Dunque negli anni 90’ siamo nella fase di sviluppo della rete, dell’internet, che segna l’era dell'informatica distribuita, con il sogno di portare tutto il potenziale della tecnologia sulle scrivanie degli utenti. Il modello organizzativo va di pari passo con la mondo della tecnologia, e infatti questo è stato il periodo del decentramento. Da qui, non ci interessa sapere dove sono le applicazioni o dove risiedono i dati. L'importante è avere accesso a ciò che ci serve nel modo e nel momento giusto. In un certo senso, tutte le risorse informatiche possono essere in rete.
Inizia ad emergere così un modello informatico veramente nuovo, simile a quello che caratterizza, per esempio, la distribuzione dell'energia. Nessuno si preoccupa di chi ci eroga la corrente elettrica: basta che sia disponibile quando serve. Quindi in maniera analoga a come giriamo la manovella del gas o premiamo l’interruttore della luce, digitiamo una qualche cosa sulla trastiera con la speranza di trovarla in rete.
Questa assoluta rivoluzione è resa possibile dalla nascita del Word Wide Web, ovvero il principale servizio di internet, quella “tela” sulla quale attraverso i protocolli di rete viaggiamo in sicurezza, messo a punto dall’informatico Tim Berners Lee al CERN di Ginevra, sviluppando le teorie sull’ Iper-testo di Vannevar Bush. Quello che bisogna comprendere è che il WWW è la prima rete aperta al pubblico, prima di essa internet era sia formalmente che praticamente accessibile solo a centri universitari e governativi, studenti e grandi società private.
In breve tempo tutti comprendono le potenzialità di una rete internet aperta, e cominciano a svilupparsi vari terminali, i cosidetti Broswer o Motori di Ricerca, per accedervi. Presto nascerà Mosaic, motore di ricerca che venne creato presso il National Center for Supercomputing Applications (NCSA), nell’Università dell’Illinois Urbana-Champaign, dall’informatico Marc Andreessen. Si tratta del primo browser web popolare e il primo antenato di Mozilla Firefox.
NCSA Mosaic girava su computer Windows, era facile da usare e forniva accesso alle prime pagine web a chiunque avesse un PC, chat room e raccolte di immagini. L’anno successivo (1994), Andreessen fondò Netscape e distribuì Netscape Navigator al pubblico. Ebbe un enorme successo e fu il primo browser per tutti. Ha inizio la Guerra dei Broswer:
Nel 1995, Netscape Navigator non rappresentava l’unico modo per andare online. Il gigante del software per computer Microsoft ottenne la licenza del vecchio codice Mosaic e creò la propria finestra sul Web, Internet Explorer. Il suo rilascio scatenò una guerra. Netscape e Microsoft lavorarono febbrilmente per creare nuove versioni dei loro programmi, ciascuno cercando di superare l’altro con prodotti migliori e più veloci. Netscape creò e distribuì JavaScript, offrendo ai siti web potenti capacità di elaborazione che prima non avevano. (Crearono anche il famigerato < blink > tag.) Microsoft rilanciò con i fogli di stile, Cascading Style Sheets (CSS), che sono poi diventati lo standard di progettazione delle pagine web. In seguito Microsoft, si assicurò il dominio, iniziando a distribuire Internet Explorer con il proprio sistema operativo Windows. In 4 anni raggiunse il 75% del mercato e nel 1999 il 99%. Insomma internet è divenuto un successo mondiale ed ha velocizzato le connessioni fra gli umani, ma è molto lontano da ciò che conosciamo oggi, le connessioni avvenivano ancora su linee analogiche, ogni minuto di connessione aveva un costo, la maggior parte dei siti internet erano composti da solo testo e la stragrande maggioranza degli individui utilizzava internet solamente per scaricare la posta elettronica.
E’ inoltre importante ricordare che internet fino a questo momento è stato sostenuto finanziariamente dalla National Science Foundation e varie restrizioni ne impedivano ancora un suo uso commerciale. Ora L'informazione comincia a diventare sempre più un'attività economica, giacché industrie ed istituzioni sono coinvolte nella raccolta, elaborazione, produzione, trasmissione e distribuzione dell'informazione. Fra gli eventi più rilevanti, và menzionata la creazione di Napster, la prima applicazione web che permetteva di scaricare gratuitamente musica sul proprio computer (file-sharing). Napster avrà un impatto importante in termini di cosa si può fare con Internet, e l’idea di creare esperienze gratuite online plasmerà in seguito un ragazzino di nome Mark Zuckemberg che fonderà Facebook. Inoltre, la combinazione di motori di ricerca, browser grafici e provider di servizi web ha permesso la nascita degli e-commerce e l’inizio di quel processo che ad oggi ha portato a farci compiere la maggior parte dei nostri acquisti online, i più importanti fra tutti Amazon ed Ebay che vengono fondate proprio in questi anni.
Nonostante i limiti ancora evidenti di internet, è chiaro, che tutto ciò pone le basi necessarie per gli sviluppi tecnologici ed informatici successivi: da un lato, dei decenni a venire, vedremo la saturazione degli sviluppi delle reti ipertestuali, fino ad arrivare ad oggi e alla concezione degli spazi virtuali composti da realtà ed esperienze interattive (metaverso, realtà aumentata), dall’altro, con effetti molto più visibili nel breve periodo, la nascita della rete aperta porta con sè la questione dell’'enorme quantità di dati messa a disposizione di tutti. Di questo ci occuperemo subito.
Come forse nel corso delle righe precedenti il lettore più acuto avrà potuto immaginare, parallelamente alla massificazione dell’utilizzo di internet e all’accumolo crescente di dati e contenuti nella rete, nascono i cosidetti Supercomputer, definizone con la quale si allude sia ai marchingegni atti a raccogliere e a sintetizzare un numero enrome di informazioni sia centri di ricerca organizzati a tale scopo. E’ chiaro che solo grandi aziende come IBM o grossi poli universitari potevano portare avanti azioni di questo tipo; sebbene ogni istituzione perseguisse fini diversi con lo studio dei dati della rete: dalle previsioni metereologiche, alla biologia, chimica e fisica computazionale, fino al data management, la maggior parte degli sforzi da qui a poco verrà focalizzata sulla difesa interna e la sicurezza dei sistemi informatici, due cose che vanno di pari passo con la digitalizzazione degli apparati di potere, da qui a poco infatti vi sarà l’attentato alle Torri Gemelle, evento che scuoterà nelle fondamenta il mondo occidentale. Riportando in seguito le parole dell’ex presidente di IBM Italia, Elio Catania:
“Il punto è nella nostra capacità di leggere attraverso tutti i dati disponibili in Internet quello che sta avvenendo. Non è certamente facile aggregare e disaggregare le enormi quantità di dati digitali presenti in rete per scoprire, per così dire trasversalmente, qualche tendenza o qualche stranezza nei campi più disparati, dalla biologia all'economia, dalla fisica alla medicina...
Pensiamo a quante informazioni dovevano essere certamente annidate nella rete nei giorni che
hanno preceduto l'attentato alle Torri Gemelle.
Se fossimo stati in grado di correlare in maniera intelligente le tantissime informazioni disponibili forse
avremmo potuto prevenire un atto così barbaro.
Ecco, se io vedo una tendenza tra le più innovative in campo informatico è proprio nella capacità di
sapere leggere con intelligenza le crescenti quantità di dati che la rete mette ogni giorno in linea.
E non è solo una sicurezza militare, politica, sociale, economica, ma perfino biologica. Potremo capire
meglio come si evolvono le diverse aree agricole, quali sono i rischi, dove può colpire il maltempo, o
anche un'epidemia. Forse non è lontano il giorno in cui tutte queste informazioni ci consentiranno di
combattere meglio malattie, non solo infettive ma soprattutto degenerative. Il confronto tra gli
innumerevoli dati di ospedali, ricercatori, medici consentirà di leggere quello che oggi ancora ci
sfugge.“
Lo sviluppo di questa tipologia di pensiero, porterà alla nascita di applicazioni, software e sistemi capitanati da algoritmi intelligenti in grado di saper scindere e selezionare le informazioni e fornire l’output più adeguato agli stimoli ricevuti, la macchina assomiglia sempre più spaventosamente al cervello umano. Non solo, ma la macchina deve essere anche sempre più vicina e collegata all’uomo, essa deve essere un prolungamento delle sue reti neuronali, una prolungazione del corpo e della mente. Proprio in questi anni infatti, nascono i primi telefoni cellulari, fieri figli dei telefoni fissi, ma antenati degli Smartphone che nel prossimo capitolo (gli anni 2000) verranno messia punto e perfezionati, ancora una volta, da Steve Jobs, i quali faranno entrare gli umani nell’Era dell’iperconnessione.
Andrea Tundo
Nessun commento:
Posta un commento