HOME PAGE

Visualizzazione post con etichetta Rivoluzione informatica. Mostra tutti i post
Visualizzazione post con etichetta Rivoluzione informatica. Mostra tutti i post

venerdì 5 agosto 2022

La Rivoluzione Informatica (parte settima): gli anni 2000 - di Andrea Tundo



     In un arco di tempo tutto sommato ristretto come quello che va dal 2000 a oggi si è consumata un'evoluzione tecnologica senza precedenti. Sono numerosissime infatti, le innovazioni che si sono susseguite nel corso degli anni 2000. Alcune si sono poste come alberi sempre verdi, traguardi senza tempo, capisaldi in grado di reggere a lungo anche alle innovazioni future, altre invece sono state solo come rapidi flash, apparecchiature transitorie. Per ragioni di organizzazione delle informazioni, in questo capitolo affronteremo unicamente la prima decade del nuovo millennio, ma si tratta di una divisione formale e anche piuttosto arbitraria in quanto, le scoperte tecnologiche che stanno guidando i nostri giorni verso la terza rivoluzione del web e una nuova visione dell’umano hanno avuto i loro fondamenti teorici e pratici prima degli anni ‘10’ del XXI secolo

    Ad ogni modo, ciò che bisogna comprendere è che d’ora in poi i computer e le macchine sono parte integrante e fondamentale nei processi di innovazione in qualsiasi campo del sapere umano, sia esso scientifico o umanistico, in altre parole non si parla più di rivoluzione informatica in sè, ma di rivoluzione informatica di altre discipline. Oltre a questo, le tecnologie sono anche sempre più piccole, sofisticate e collegate al corpo umano. Infatti, vicino all’alba dei 2000, tanto oramai l’Umanità dipendeva dai sistemi informatici che un’orda di tecnici in tutto il mondo si preoccupava dell’eventualità di un Millenium Bug, ovvero l’apocalisse informatica, che sembrava dovesse abbattersi su ogni PC. Il baco del millennio consisteva nell’impossibilità da parte della maggioranza dei sistemi informatici di allora di leggere l’anno ’00 come 2000: il rischio era di trovarsi improvvisamente al 1° gennaio 1900, con il mondo in preda a una specie di “rivolta delle macchine”. Così ovviamente, non fu.

     L’Umanità è ormai lanciata verso l’abbattimento di ogni confine, è possibile comunicare e lo sarà sempre di più con chiunque, in qualsiasi parte del mondo. Dunque, è anche possibile essere controllati ovunque, in qualsiasi parte del mondo. Una delle invenzioni più importanti di questo periodo, infatti, è proprio Google Maps che rivoluziona per sempre il modo di guardare una mappa, iniziando per primo quel processo ormai inesorabile che consegna la capacità decisionale degli individui agli algoritmi semplificatori. Non ci sarà bisogno di guardare la strada e memorizzare dei punti di riferimento, non ci sarà bisogno di sforzarsi.

     In una corsa senza pause dall’uscita dello storico Nokia 3310 fino al primo Iphone prodotto da Steve Jobs, quasi ogni persona sulla terra possiede un telefonino che, dal 2007 in poi, con l’invenzione del touch-screen e dell’applicazioni cellulari (che sostituiscono i sowftare per le apparecchiature mobili) divengono un prolungamento del sistema neuronale umano. Il cellulare collega il nostro cervello e prolunga le nostre capacità in qualsiasi momento in altre dimensioni, che non sono tangibili mentre operiamo, siamo collegati con altro che, se da un lato possiamo tentare di influenzare, dall’altro ci influenza potentemente. L’uomo come mai prima d’ora ha accesso ad un portale infinito di informazioni e nessuna educazione e contezza nel gestirle.

      È ora di parlare di ciò che è stata sicuramente l’innovazione del decennio: I Social Network, emblema dell’Era dell’informazione. Piattaforme, che danno avvio all’era del web 2.0, che forniscono servizi per la gestione dei rapporti e delle reti sociali. I social si sono imposti, soprattutto con Facebook, nel rivoluzionare quasi ogni paradigma del modo di fare le cose. In primis è iniziato a mutare il modo in cui gli esseri umani si relazionano e comunicano fra loro, non solo in termini di velocità, infatti, i messaggi e le condivisioni sui social permettono un’estrema rapidità di azione e reazione, ma soprattutto rendendo più complesse le cose.

     Se inizialmente la comunicazione sui social poteva apparire come una riproduzione pressochè simile delle dinamiche della vita reale, presto, come già accadeva nelle sette online e dei blog reconditi del primo internet, all’interno dei social si sono sviluppati un linguaggio, delle dinamiche comportamentali, dei ritmi e altri codici propri, diversi da quelli della vita “fisica”. Insomma una realtà che si sovrappone alla realtà.

     I social hanno inoltre cambiato per sempre il mondo dell’informazione in senso stretto, dando la stoccata definitiva ai media tradizionali (giornali e televisioni) che faticheranno sempre di più a competere con la comodità e rapidità dello scambio di contenuti su queste piattaforme, le quali oltretutto, attraverso l’accumolo massiccio di dati e informazioni personali degli utenti, sono in grado di indirizzare le volontà degli stessi verso una determinata tipologia di contenuto piuttosto che un’altra, con conseguenze politiche, sociali ed economiche enormi che si riveleranno nel decennio successivo (Cambridge Analitica). Ancora, terminando un processo che avuto inizio con la televisione, l’uomo sarà ormai sempre più schiavo dell’immagine, dei colori, dell’interazione video e della brevità delle tematiche. Un uomo medio non è più in grado di mantenere la concentrazione su un contenuto per più di 7 secondi netti prima di “scrollare” verso uno nuovo. Situazione paradossale se si pensa all’aumento della complessità del sociale che avrebbe dovuto richiedere un aumento proporzionale della capacità di approfondimento. Siamo sempre più collegati, ma non si sa bene con cosa.

     Umberto Eco aveva, in maniera lungimirante, compreso questa dinamica affermando che Internet avrebbe reso “i ricchi, ancora più ricchi e i poveri, ancora più poveri” riferendosi a povertà e ricchezza rispetto alla qualità delle informazioni in proprio possesso. La struttura stessa della rete con la sua vastità e ampiezza di contenuti, necessità di piattaforme e sistemi che facciano da filtro fra queste miriadi di informazioni, colui che ha i mezzi per discernere e selezionare le prelibatezze dall’immondizia si troverà in una condizione immensamente privilegiata, al contrario chi non è dotato di queste capacità continuerà a nutrirsi dall’immondizia dell’internet senza possibilità di rendersene conto, ormai fagocitato dalle dinamiche di rete. “Il colto del XXI secolo non sarà colui che avrà memorizzato il maggior numero di nozioni e conoscenze, ma colui che sarà in grado di trovare l’informazione migliore fra le miriadi disponibili.” Parallalamente, in questi anni viene alla luce Wikipedia, la più grande enciclopedia online al mondo, in grado di fornire nozioni generali e minime su (quasi) qualsiasi argomento esistente.

    In conclusione, è bene ritornare sui passi iniziali e fornire un breve approfondimento su quanto l’informatica si sia staccata da sé per fornire rivoluzioni in ogni ambito dello scibile umano, segnando scoperte e rivoluzioni epocali.

In biologia nuove macchine di calcolo hanno permesso la mappatura di tutto il genoma umano e la creazione di cellule sintetiche, trasportandoci nell’era dell’eugenetica, oggi l’uomo è in grado di operare come un “Dio”: clonare essere viventi, perfezionarsi geneticamente (e non solo esteticamente), far partorire uomini... e tutto questo è il frutto della rivoluzione informatica.

Nell’ambito dell’ingeneria questi anni ci regalano la stampante 3D grazie alla quale è stato possibile operare importanti rivoluzioni in ambito medico. In fisica, macchine come l’accelleratore di particelle ha reso possibile la scoperta del Bosone di Higgs, dei buchi neri e delle onde gravitazionali, dando concretezza esemplare alle teorie di Einstein.

La sintesi qui riportata ci mostra, come già detto, l’entrata in una nuova Era dell’umano: sempre più dipendente dalle macchine e sempre più desideroso di assomigliarli. Se in questo capitolo si sono affrontati concetti, bene o male assorbiti e resi consapevoli in un lettore erudito, prestando maggiormente attenzione alle dinamiche sociali piuttosto che ai tecnicismi informatici, nel prossimo dovremmo nuovamente affrontare astrazioni e idee più complesse, scendendo sovente nel tecnico e toccando con mano il prossimo futuro dell’Umanità che sembrava fino a poco fa fantascienza. Si parlerà di computer quantistici, di microchip, di intelligenze artificiali, di realtà virtuali... della Nuova Era dell’internet

Andrea Tundo

mercoledì 27 luglio 2022

La Rivoluzione Informatica (parte sesta): gli anni '90 - di Andrea Tundo

 

         Seguendo gli sviluppi di ciò che è stato introdotto la parte precedente, la seconda metà degli anni '80 e i primi anni '90 sono stati caratterizzati dai personal computer: i pc si diffondono nella gran parte delle case, con un crollo dei prezzi e un’ulteriore miniaturizzazione delle componenti, essi si avviano a diventare un oggetto imprescindibile della vita quotidiana. Ma sono solo  lo sviluppo e la diffusione di Internet che, alla fine degli anni Novanta, ne ampliano notevolmente le funzione e l'ambito di utilità.

       Dunque negli anni 90’ siamo nella fase di sviluppo della rete, dell’internet, che segna l’era dell'informatica distribuita, con il sogno di portare tutto il potenziale della tecnologia sulle scrivanie degli utenti. Il modello organizzativo va di pari passo con la mondo della tecnologia, e infatti questo è stato il periodo del decentramento. Da qui, non ci interessa sapere dove sono le applicazioni o dove risiedono i dati. L'importante è avere accesso a ciò che ci serve nel modo e nel momento giusto. In un certo senso, tutte le risorse informatiche possono essere in rete.

      Inizia ad emergere così un modello informatico veramente nuovo, simile a quello che caratterizza, per esempio, la distribuzione dell'energia. Nessuno si preoccupa di chi ci eroga la corrente elettrica: basta che sia disponibile quando serve. Quindi in maniera analoga a come giriamo la manovella del gas o premiamo l’interruttore della luce, digitiamo una qualche cosa sulla trastiera con la speranza di trovarla in rete.

     Questa assoluta rivoluzione è resa possibile dalla nascita del Word Wide Web, ovvero il principale servizio di internet, quella “tela” sulla quale attraverso i protocolli di rete viaggiamo in sicurezza, messo a punto dall’informatico Tim Berners Lee al CERN di Ginevra, sviluppando le teorie sull’ Iper-testo di Vannevar Bush. Quello che bisogna comprendere è che il WWW è la prima rete aperta al pubblico, prima di essa internet era sia formalmente che praticamente accessibile solo a centri universitari e governativi, studenti e grandi società private.

     In breve tempo tutti comprendono le potenzialità di una rete internet aperta, e cominciano a svilupparsi vari terminali, i cosidetti Broswer o Motori di Ricerca, per accedervi. Presto nascerà Mosaic, motore di ricerca che venne creato presso il National Center for Supercomputing Applications (NCSA), nell’Università dell’Illinois Urbana-Champaign, dall’informatico Marc Andreessen. Si tratta del primo browser web popolare e il primo antenato di Mozilla Firefox.

     NCSA Mosaic girava su computer Windows, era facile da usare e forniva accesso alle prime pagine web a chiunque avesse un PC, chat room e raccolte di immagini. L’anno successivo (1994), Andreessen fondò Netscape e distribuì Netscape Navigator al pubblico. Ebbe un enorme successo e fu il primo browser per tutti. Ha inizio la Guerra dei Broswer:

      Nel 1995, Netscape Navigator non rappresentava l’unico modo per andare online. Il gigante del software per computer Microsoft ottenne la licenza del vecchio codice Mosaic e creò la propria finestra sul Web, Internet Explorer. Il suo rilascio scatenò una guerra. Netscape e Microsoft lavorarono febbrilmente per creare nuove versioni dei loro programmi, ciascuno cercando di superare l’altro con prodotti migliori e più veloci. Netscape creò e distribuì JavaScript, offrendo ai siti web potenti capacità di elaborazione che prima non avevano. (Crearono anche il famigerato < blink > tag.) Microsoft rilanciò con i fogli di stile, Cascading Style Sheets (CSS), che sono poi diventati lo standard di progettazione delle pagine web. In seguito Microsoft, si assicurò il dominio, iniziando a distribuire Internet Explorer con il proprio sistema operativo Windows. In 4 anni raggiunse il 75% del mercato e nel 1999 il 99%. Insomma internet è divenuto un successo mondiale ed ha velocizzato le connessioni fra gli umani, ma è molto lontano da ciò che conosciamo oggi, le connessioni avvenivano ancora su linee analogiche, ogni minuto di connessione aveva un costo, la maggior parte dei siti internet erano composti da solo testo e la stragrande maggioranza degli individui utilizzava internet solamente per scaricare la posta elettronica.

     E’ inoltre importante ricordare che internet fino a questo momento è stato sostenuto finanziariamente dalla National Science Foundation e varie restrizioni ne impedivano ancora un suo uso commerciale. Ora L'informazione comincia a diventare sempre più un'attività economica, giacché industrie ed istituzioni sono coinvolte nella raccolta, elaborazione, produzione, trasmissione e distribuzione dell'informazione. Fra gli eventi più rilevanti, và menzionata la creazione di Napster, la prima applicazione web che permetteva di scaricare gratuitamente musica sul proprio computer (file-sharing). Napster avrà un impatto importante in termini di cosa si può fare con Internet, e l’idea di creare esperienze gratuite online plasmerà in seguito un ragazzino di nome Mark Zuckemberg che fonderà Facebook. Inoltre, la combinazione di motori di ricerca, browser grafici e provider di servizi web ha permesso la nascita degli e-commerce e l’inizio di quel processo che ad oggi ha portato a farci compiere la maggior parte dei nostri acquisti online, i più importanti fra tutti Amazon ed Ebay che vengono fondate proprio in questi anni.

     Nonostante i limiti ancora evidenti di internet, è chiaro, che tutto ciò pone le basi necessarie per gli sviluppi tecnologici ed informatici successivi: da un lato, dei decenni a venire, vedremo la saturazione degli sviluppi delle reti ipertestuali, fino ad arrivare ad oggi e alla concezione degli spazi virtuali composti da realtà ed esperienze interattive (metaverso, realtà aumentata), dall’altro, con effetti molto più visibili nel breve periodo, la nascita della rete aperta porta con sè la questione dell’'enorme quantità di dati messa a disposizione di tutti. Di questo ci occuperemo subito.

    Come forse nel corso delle righe precedenti il lettore più acuto avrà potuto immaginare, parallelamente alla massificazione dell’utilizzo di internet e all’accumolo crescente di dati e contenuti nella rete, nascono i cosidetti Supercomputer, definizone con la quale si allude sia ai marchingegni atti a raccogliere e a sintetizzare un numero enrome di informazioni sia centri di ricerca organizzati a tale scopo. E’ chiaro che solo grandi aziende come IBM o grossi poli universitari potevano portare avanti azioni di questo tipo; sebbene ogni istituzione perseguisse fini diversi con lo studio dei dati della rete: dalle previsioni metereologiche, alla biologia, chimica e fisica computazionale, fino al data management, la maggior parte degli sforzi da qui a poco verrà focalizzata sulla difesa interna e la sicurezza dei sistemi informatici, due cose che vanno di pari passo con la digitalizzazione degli apparati di potere, da qui a poco infatti vi sarà l’attentato alle Torri Gemelle, evento che scuoterà nelle fondamenta il mondo occidentale. Riportando in seguito le parole dell’ex presidente di IBM Italia, Elio Catania:

“Il punto è nella nostra capacità di leggere attraverso tutti i dati disponibili in Internet quello che sta avvenendo. Non è certamente facile aggregare e disaggregare le enormi quantità di dati digitali presenti in rete per scoprire, per così dire trasversalmente, qualche tendenza o qualche stranezza nei campi più disparati, dalla biologia all'economia, dalla fisica alla medicina...

      Pensiamo a quante informazioni dovevano essere certamente annidate nella rete nei giorni che hanno preceduto l'attentato alle Torri Gemelle.
Se fossimo stati in grado di correlare in maniera intelligente le tantissime informazioni disponibili forse avremmo potuto prevenire un atto così barbaro.
Ecco, se io vedo una tendenza tra le più innovative in campo informatico è proprio nella capacità di sapere leggere con intelligenza le crescenti quantità di dati che la rete mette ogni giorno in linea.
      E non è solo una sicurezza militare, politica, sociale, economica, ma perfino biologica. Potremo capire meglio come si evolvono le diverse aree agricole, quali sono i rischi, dove può colpire il maltempo, o anche un'epidemia. Forse non è lontano il giorno in cui tutte queste informazioni ci consentiranno di combattere meglio malattie, non solo infettive ma soprattutto degenerative. Il confronto tra gli innumerevoli dati di ospedali, ricercatori, medici consentirà di leggere quello che oggi ancora ci sfugge.“

        Lo sviluppo di questa tipologia di pensiero, porterà alla nascita di applicazioni, software e sistemi capitanati da algoritmi intelligenti in grado di saper scindere e selezionare le informazioni e fornire l’output più adeguato agli stimoli ricevuti, la macchina assomiglia sempre più spaventosamente al cervello umano. Non solo, ma la macchina deve essere anche sempre più vicina e collegata all’uomo, essa deve essere un prolungamento delle sue reti neuronali, una prolungazione del corpo e della mente. Proprio in questi anni infatti, nascono i primi telefoni cellulari, fieri figli dei telefoni fissi, ma antenati degli Smartphone che nel prossimo capitolo (gli anni 2000) verranno messia punto e perfezionati, ancora una volta, da Steve Jobs, i quali faranno entrare gli umani nell’Era dell’iperconnessione. 

Andrea Tundo

giovedì 7 luglio 2022

La Rivoluzione Informatica (parte quinta): gli anni '80 - di Andrea Tundo

 

    Dopo una lunga pausa, eccoci ritrovati con un nuovo appuntamento della nostra rubrica sulla rivoluzione informatica, in cui andremo a seguire gli importanti sviluppi del computer e di internet negli 80’, cogliendo in particolare quelle dinamiche che hanno influenzato, più di tutte, il modo in cui queste due tecnologie si sono propagate nel mondo nei decenni successivi sino ad oggi.

    È neccesario a questo punto fare un breve rimando a quanto sottolineato nell’articolo precedente, quindi nel decennio attinente agli anni '70: solo allora venne alla luce il microprocessore, che permetterà, come vedremo, la creazione dei primi veri e propri personal computer, ovvero un device di dimensioni piccole e a basso costo, adatto dunque ad una diffusione capillare negli uffici, nelle università e tra la popolazione, in quanto, come già evidenziato, i computer fino agli anni 60’ erano solo di ausilio degli alti apparati burocrati e militari dello Stato, anzi è proprio grazie all’ organismo militare americano “ARPA” che dobbiamo la creazione dei primi collegamenti fra computer e cioè alla nascita del primordiale internet.

    Dunque, cosa è avvenuto negli anni 80’, sono stati questi gli anni della prima grande diffusione dell’informatica personale. Le basi teoriche c’erano tutte. Quello che avvenne fu semplicemente la popolarizzazione a prezzi accessibili dei primi «personal computer» o «home computer» e lo sviluppo di programmi generici che ne rendevano l’uso attraente, anche appunto alla singola persona nel lavoro quotidiano o nello svago. Il tipico computer di quell’epoca aveva quindi normalmente un interprete (cioè un programma che traduce in linguaggio macchina istruzioni formulate in linguaggio simbolico) per un linguaggio di programmazione e veniva completato a seconda delle necessità, con programmi applicativi: videoscrittura, foglio di calcolo, database. In ogni caso era impossibile cominciare ad usare un computer se prima non se ne studiavano i manuali: in parte perché per qualsiasi impiego più specializzato usare un computer significava programmarlo, in parte perché non esisteva alcuno standard e ogni programma già pronto era una storia a sé, in parte ancora perché nozioni oggi imparate spontaneamente nella culla erano novità inaudite («posso tornare indietro e correggere ciò che ho scritto? davvero?»), in parte, per chiudere, perché venivano fatti pochissimi sforzi per rendere «intuitivo» l’uso di un programma.

     Sembrerà strano, ma di fronte alla difficoltà di questo nuovo ingresso c’era chi cantava vittoria: per esempio Neil Postman, che nel suo celebre The Disappearance of Childhood vedeva nell’informatica il ritorno nella storia dell’Umanità di una competenza difficile che (per dirla in due parole) avrebbe ridato senso alle istituzioni educative e restituito alla minore età il suo carattere di periodo di apprendimento e crescita. Insomma l’accesso a tecnologie così intriganti avrebbe costretto tutti ad impegnarsi di più ed uscire fuori dalla trappola di una società tayloristica, sistema che abbiamo già analizzato, qui in Maison Ragosta negli articoli precedenti. Le cose non sono andate così. La fine degli anni ‘80 vede la rapida diffusione delle interfacce grafiche, che in un sol colpo annullano tutti i motivi detti prima: ora ogni cosa assomiglia alla vita reale, si impone lo standard WIMP (window, icon, menu, pointer), diventa un imperativo la discoverability, cioè la possibilità di «scoprire» autonomamente tutte le funzioni esistenti, e tutto viene progettato in modo da rendere superflui i manuali, mentre la programmazione, irriducibile com’è a manipolazioni grafiche, viene sempre più percepita come qualcosa di esoterico. Mentre prima la preoccupazione era soprattutto che un programma fosse veloce da usare una volta imparato, ora si vuole che esso possa essere usato senza bisogno di impararlo: una cosa completamente diversa.   

Interpretazione esagerata? Niente affatto! Ecco che arriva Steve Jobs! Su questo erano esattamente basati i messaggi pubblicitari del primo Macintosh nel 1984, uno straordinario e meritato successo basato sullo slogan: non dovrai imparare come funziona il computer, perché noi abbiamo insegnato al computer come funzioni tu. Gli anni in cui si afferma l’informatica personale sono poi anche quelli in cui si diffonde Internet, cosa che merita un discorso a sé. Basti però dire che avviene qualcosa di paragonabile: un canale dapprima pensato per poche élites diventa improvvisamente ubiquitario e facile.

     Inizia in questo periodo a svilupparsi Internet in senso stretto, inizia proprio ad essere utilizzata la parola Internet, con il significato dello spazio nella rete in cui i computer comunicano tra loro trasferendosi dati. Per intenderci, in questo periodo nascono i protocolli che ancora reggono i controlli di trasmissione dati fra computer, ma nascono anche i domini, nascono i primi software di gestione delle mail. Non siamo ancora nell’era del World Wild Web (il www.), ma siamo molto vicini; nascono reti di computer autonome anche in tutta Europa; in Francia in particolare si sviluppa il Minitel, che diventa la più grande rete di computer fuori dagli USA. Per quanto concerne l’Italia, il nostro primo collegamento ad internet avviene nel 1986 dai centri di ricerca della Normale di Pisa. Insomma, collegarsi a Internet è ancora qualcosa di complesso, ma il dado è tratto e la crescita di questa tecnologia procede ormai in maniera esponenziale, le tante basi teoriche e visioni utopiche messa a punto sin dagli anni 30’ da matematici, fisici e qualche letterato stanno divenendo realtà. Nel 1989, Internet conta ben 100.000 computer connessi in grado di collegarsi alla rete.

     Nel prossimo appuntamento, nell’evoluzione informatica del decennio 90’, si farà un viaggio su due binari da un lato la massificazione di internet e l’introduzione di quelle invenzioni che ne hanno permesso lo sviluppo come lo conosciamo oggi, e dall’altro all’utilizzo dei computer come potenti macchine di calcolo e controllo, al servizio delle funzioni del Potere e della Scienza.

Andrea Tundo

lunedì 4 novembre 2019

La rivoluzione informatica (parte quarta): gli anni ’70 – di Andrea Tundo

In prima battuta, va ricordato che negli anni ’60 -già trattati nel precedente articolo di questa rubrica di Maison Ragosta- furono raggiunte innovazioni tecniche e teoriche riguardanti soprattutto lo sviluppo delle reti informatiche, ovvero la comunicazione fra più computer, e il potenziamento di questi ultimi, che passarono da essere semplici macchine di calcolo a interfaccia più o meno intelligenti in grado di compiere diverse funzioni contemporaneamente. Va ricordato inoltre che l’estensione dell’utilizzo del computer, in questo periodo, non va oltre nicchie specializzate, come le multinazionali e gli alti apparati burocratici e militari dello stato.
Gli anni ‘70 però contengono al loro interno un’aria ben diversa, un’aria di libertà e condivisione in tutti i campi del sapere: nelle arti, nella politica, nel comportamento dell’individuo, nelle scienze e così ugualmente nella nostra ancora giovane informatica. Infatti, da un gruppo di giovani di varia estrazione culturale prendono avvio l’avventura del centro di ricerca di Palo Alto e quello che sarà uno tsunami informatico-commerciale dovuto alla visione e realizzazione del personal computer come lo conosciamo oggi…, non solo una macchina da calcolo, ma anche uno strumento di comunicazione tra le persone, che peraltro non richiede per il suo funzionamento l’ausilio di tecnici specializzati. Qualcosa, insomma, che nelle visioni dei più illuminati, tra manager e matematici, tutti avrebbero dovuto avere………come poi hanno avuto!
In tal senso bisogna porre una particolare attenzione al lavoro di Steve Jobs, che non fu l’unico fautore di questa grande impresa visionaria né tantomeno l’unico genio in grado di prevederla, ma la sua figura, che negli anni ’90 diventò un’icona pop, è il simbolo di ciò che successe da quegli anni in poi: la massificazione delle tecnologie, che diverranno parte integrante del quotidiano, entreranno nelle case, negli uffici, nelle biblioteche, nelle scuole e così via sino a costituire l’oggetto di una delle nuove schiavitù. Non intendiamo in questa sede schierarci da una parte piuttosto che da un altra, ma sta di fatto che tale fenomeno, oggi, ha raggiunto il suo punto di saturazione dal punto di vista commerciale. Quasi tutta l’umanità infatti possiede un computer e/o un telefonino se non più di uno; inoltre la percezione di tale fenomeno si è in un certo senso invertita. Se di fatto sul finire degli anni 70’ avere un pc, vera e propria novità tecnologica, equivaleva a uno status symbol di persona indipendente e sganciata da determinate logiche del pensiero comune, oggi lo stesso vale per chi non ce l’ha, i quali sono veramente pochi. E se da un lato la commercializzazione su larga scala delle nuove tecnologie è stata spesso spinta grazie a una retorica pubblicitaria che ne esaltava i caratteri indipendenti rispetto agli apparati di potere e le grandi libertà che l’uomo medio ne avrebbe tratto, dall’altro si è diventati schiavi della tecnologia in sé e non tutti sono realmente in grado di calcolare se la propria vita possa effettivamente dirsi migliorata dopo questi cambiamenti. E’ questa una tra le nuove dipendenze, come lo fu la sigaretta nel dopoguerra. Bisogna in definitiva convivere con queste contraddizioni del consumismo ed eventualmente provare a chiarirsele, ma per farlo è necessario avere il quadro della situazione.
Ma torniamo sui nostri passi. La massificazione delle tecnologie è stata resa possibile, innanzitutto, dall’ottimizzazione dell’hardware, che diventa più piccolo e funzionale. L’invenzione dell’Apple 1, infatti, primo computer ad essere stato messo in commercio ad un prezzo accessibile a molti, era in sostanza una scheda madre alla quale andavano collegati alimentatore, tastiera e display. Il salto successivo sarà  quello di fondere questo circuito integrato con un televisore: nasce così il 5 giungo 1977 l’Apple 2. A partire da tale anno sono presenti tutti gli elementi del vero personal computer e per la prima volta un attrezzo informatico entra nel mercato di massa. Tutti i tentativi precedenti anche dell’IBM presentavano prezzi alti, una gestione operativa poco efficace ed efficiente e un utilizzo in molti casi hobbistico. E’ importante notare che questo enorme passo non viene compiuto da una compagnia accreditata come IBM, ma da un gruppo di giovani che avviano quest’attività in un garage di Cupertino e che pochi anni dopo verranno quotati in borsa. Si allude ovviamente alla Apple.
In Italia, su altro fronte, tra 1970 e il 1974, nasce a Novedrate (CO) il Centro Studi e Formazione per l’Europa dell’IBM, un polo informatico che poteva ospitare fino a 500 tra formatori, progettisti e discenti, il quale fu il fulcro operativo del processo di informatizzazione di gran parte del sistema bancario europeo e delle più grandi aziende in ambito commerciale ed industriale del Vecchio Continente. Un centro che rimase attivo fino al 2003, quando, come si vedrà, per gli ulteriori sviluppi matematico-scientifici di questo mondo, resero la struttura poco significativa sotto il profilo strategico e produttivo.
Sicché, negli anni ’70, in sintesi, se da un lato si ha il pieno sviluppo del processo di informatizzazione delle grandi strutture pubbliche e private, dove in ambito militare a seguito dei rilevanti progressi registrati si comincia a pensare di ridurre in maniera massiccia l’impiego del fattore umano; dall’altro, sebbene a livello embrionale, cominciano a prendere corpo le attrezzature informatiche domestiche, tra le quali il più rilevante è il personal computer, posto per la prima volta sul mercato  a titolo sperimentale da Olivetti nel 1957, ma che solo in questo decennio registreranno rilevanti e significativi progressi, che permetteranno, poi, all’avvio del nuovo decennio, nel 1981, l’ingresso sul mercato del primo vero computer da tavolo, l’IBM 5150, anche se si dovrà attendere il 1984 per averne uno nell’odierna accezione, targato questa volta dalla Apple di Steve Jobs.

Andrea Tundo

martedì 24 settembre 2019

La Rivoluzione Informatica (parte terza): gli anni ’60, ovvero verso Internet – di Andrea Tundo


Sulla scia degli sviluppi informatici del decennio precedente, ovvero quelli degli anni’50 del secolo scorso, trattati nel pezzo precedente, rispetto ai quali va qui ricordato che sono stati prevalentemente impiegati e orientati nella creazione di apparati strategici, militari e amministrativi, ed in ogni caso, sul piano della sicurezza, sia dal governo  Usa e sia dall’Urss, gli anni 60’ -con il boom economico e lo sviluppo che l’Occidente raggiunse, che contengono l’humus perfetto per nuovi  ed inusitati progressi- sono caratterizzati ancora da un potenziamento non solo delle conoscenze e delle tecniche in campo informatico, ma sul piano applicativo, da un’azione, avente queste per strumento, ancora riservata ai massimi organi di governo di un territorio.
In questo periodo, negli anni ’60 appunto, i computers non sono più fantascienza e non sono più un fenomeno episodico, essendo installati in qualche migliaio di esemplari in tutto il mondo. Oltretutto, ne furono potenziate grandemente le capacità di elaborazione e calcolo. Infatti, le macchine informatiche fino a quel momento erano in grado di svolgere un programma alla volta, ma, a partire dai primi anni ’60, attraverso l’introduzione di un nuovo concetto, il cosiddetto time-sharing, ovvero la “condivisione di tempo”, esse furono in grado di eseguire diversi programmi e funzioni contemporaneamente, assegnando cioè a ciascuna macchina informatica una porzione di tempo e di calcolo. Inizia qui e così quel processo di cui oggi possiamo osservare i sempre più evidenti sviluppi, e cioè l’accostamento dell’elaborazione dati di un computer a quella del cervello umano, per potenza e funzionalità.
         Per altro verso, ben presto i ricercatori e gli esperti di programmazione si resero conto dell’inadeguatezza del metodo di trasmissione dati. E così, l’ARPA, ovvero l’Agenzia di Ricerca Avanzata del Pentagono, cercò di sviluppare una rete di comunicazione in grado connettere un sistema di computers, consentendogli di operare tutti contemporaneamente. Gli obiettivi dell’ARPA furono resi possibili grazie alle innovazioni tecnologiche apportate dell’azienda privata IBM, la quale mise a punto una linea di computers compatibili tra loro, aventi lo stesso sistema operativo.
Inoltre, si trovò il modo di rendere più resistente la rete attraverso una nuova impostazione, ovvero il pocket switching, che in pratica permetteva al flusso dei dati di essere diviso in pacchetti (piccole unità) trasmessi individualmente seguendo il più rapido percorso in rete. Questo tipo di rete distribuita, in cui ciascun utente mantiene la sua autonomia indipendentemente dall’altro, trovò il suo sviluppo pratico in ARPANET -il vero e proprio antenato di INTERNET- che si sostanziò in una rete digitale che collegava, almeno in questi anni, gli anni’60 appunto, le università e i centri di ricerca affiliati all’ARPA. 
E proprio attraverso ARPANET si mise in pratica il primo sistema di difesa militare, capace di contrastare efficacemente un eventuale attacco nucleare. Si ricorda al proposito che si è in piena Guerra Fredda, e quindi vi è una corsa non solo agli armamenti ma anche allo sviluppo dei sistemi informatici, che consentono una massima efficienza del sistema bellico.
Il lettore più esperto potrà facilmente notare da sé che il sistema bellico americano viene portato avanti, gestito e supportato dai privati e da aziende private, ivi compreso lo sviluppo tecnologico, ma a beneficiarne di questo sono, per il momento, unicamente gli apparati statali e per lo più militari-strategici. E qui non è superfluo mettere in evidenza che la rivoluzione informatica, dunque, non è ancora percepibile a livello popolare e non ha ricadute sulla società, se non ai suoi massimi livelli.  Per questo tipo di fenomeno, cioè popolare, bisognerà attendere i frenetici anni 70’, con lo sviluppo dello stimolante e variegato ambiente di Palo Alto in California, dove un ruolo decisivo lo avrà, come si metterà in luce nel prossimo pezzo, il noto Steve Jobs. Ma ad ogni modo, come si può facilmente arguire, proprio negli anni ’60 si gettano le basi per un possibile sviluppo diffuso del mondo informatico e per sostenere la visione dello stesso Steve Jobs, che si auspicava una “democratizzazione” dell’informatica, ovvero che ogni cittadino del mondo possedesse un computer. Visione corretta, da momento che oggi, gran parte della popolazione mondiale possiede il cosiddetto cellulare, che altro non è che un potente computer tascabile.

Andrea Tundo

martedì 27 agosto 2019

La Rivoluzione Informatica (parte seconda) – Gli anni ’50: i primi grandi progressi – di Andrea Tundo


Come s’è già chiarito nel precedente articolo di questa rubrica, le fondamenta per l’avvio della rivoluzione informatica, che ancora oggi si presenta in una progressione esponenziale, vengono gettate dalle idee e invenzioni di Alan Turing, tra la fine degli anni ’30 e gli inizi degli anni ’40 del secolo scorso. Certamente, Turing non fu l’unico studioso focalizzato sulle problematiche matematico-informatiche, ma di sicuro il più decisivo. E tuttavia è solo nel decennio successivo, negli anni ’50 appunto, che le nuove conoscenze si espandono in maniera più vasta e cominciano a radicarsi all’interno di alcuni comparti della società, soprattutto quelli più strategici per la gestione di un territorio, come da qui a breve si metterà in luce.
Si è anche accennato in precedenza anche all’invenzione e alla commercializzazione del primo computer, avvenuta nel 1941, ma è bene specificare che fino a tutti gli anni ‘50 per computer altro non si intende che un potente calcolatore e nulla più. Non si era ancora in grado, infatti, di realizzare dal punto di vista pratico una macchina che rispondesse a una sequenza di istruzioni, la quale operasse su entità diverse dai semplici numeri o meglio che interagisse coi numeri come entità. Insomma, non si andava al di là dell’elaborazione di codici numerici, al contrario di oggi in cui ad esempio in cui i computer hanno codici vocali, grafici, sonori e via dicendo sino alla robotica. Ciononostante, per l’umanità già questi progressi furono in grado di generare delle profonde modificazioni nelle principali istituzioni pubbliche e private e, tuttavia, solo di rimando ed indirettamente sull’intera società. Infatti, l’uomo comune non riuscì a percepire i grandi mutamenti, questi mutamenti che avrebbero da lì a qualche decennio e nella loro progressione, completamente rivoluzionato il suo modo di vita, sia sul piano lavorativo, ma anche su quello esistenziale e sociale.
Altro grandissimo risultato ottenuto nel campo dell’informatica, in questi anni, senza il quale la maggior parte delle successive scoperte e innovazioni non sarebbero state possibili, fu la Teoria dell’Informazione di Shannon. Essa presenta riscontri in varie discipline oltre a quella informatica, come la fisica e la matematica applicata, la statistica, lo studio della linguistica e in moltissimi altri campi. Ciò che è rilevante per il proseguimento del nostro percorso è che, di fatto, questa teoria offrì un modello di interazione tra intelligenze artificiali, ovvero essa descrive come due macchine potessero essere messe in comunicazione. Senza la formula elaborata da ShannonInternet non esisterebbe, così come non sarebbe possibile utilizzare un telefonino, e gli esempi potrebbero continuare all’infinito, fino ad arrivare all’oggi dove l’essere umano interagisce con la macchina in prima persona e colloquialmente. Al riguardo, si pensi a Siri della Apple o Alexa di Amazon, per giungere, chissà, magari in un futuro molto prossimo, quando l’uomo dovrà convivere con la volontà di un algoritmo.
Va da sé che le varie scoperte scientifico-matematiche e le relative applicazioni tecnologiche in questo periodo, negli anni ’50 appunto e come s’è avuto modo di sottolineare, non ebbero un evidente e visibile riscontro dal punto di vista sociale, nella vita di tutti i giorni dell’uomo comune, per intenderci, ma vennero utilizzate per potenziare la macchina burocratica e soprattutto militare dello Stato (in prima battuta negli Stati Uniti e subito dopo in URSS), sui piani, ad esempio, della velocizzazione dei censimenti della popolazione e dei calcoli balistici necessari per affinare i lanci di missili e i proiettili da artiglieria. In tale direzione, non è azzardato ipotizzare che, la Guerra Fredda, la quale, in questo decennio, registrò la parte più acuta della sua parabola, deve in maniera non irrilevante proprio ai progressi in campo informatico la sua accelerazione, in una riconcorsa agli armamenti sempre più sofisticati. Sicché, come è noto e come è ovvio, i primi e sostanziali progressi in campo informatico sono stati di ausilio e trovano applicazione nella soluzione di problemi tipici dei vertici della società, anche se non tarderà molto quando le tecnologie connesse all'informatica cominceranno a "scendere" nella piramide sociale ed interessare fasce di popolazione sempre più corpose.

Andrea Tundo

mercoledì 31 luglio 2019

La Rivoluzione Informatica (parte prima): Le premesse – di Andrea Tundo


            Qui e così Maison Ragosta avvia una sua nuova rubrica, che, in sedici puntate (due al mese), narrerà della Rivoluzione Informatica, la quale si presenta a tutt’oggi in una fase ascendente e di accelerazione e che forse caratterizzerà i nostri tempi per almeno i prossimi cinquanta anni. Una Rivoluzione che, avviatasi negli anni ’50 del secolo scorso ha modificato profondamente non solo la nostra cultura nelle sue varie declinazioni, ma sta conducendo a nuove forme di esistenza sul nostro pianeta.
            Proprio per tutto ciò, nei nostri appuntamenti, si analizzerà il fenomeno nei suoi risvolti sociali, politici ed economici, non mancando tuttavia approfondimenti più tecnici, i quali saranno posti in chiave, ovviamente, prettamente divulgativa e comprensibile per un’utenza molto vasta. In tale prospettiva, prenderemo ad analisi tutti i passaggi fondamentali, scandendo tutte le trasformazioni socio-economiche e politiche conseguenti per decennio, partendo dagli anni successivi al dopoguerra dove la progressione delle conoscenze informatiche divenne sempre più rapida. Naturalmente, si avrà cura di fare un cenno importante all’opera di Alan Turing, che fra il 1936 e il 1940 metterà importanti fondamenta in ambito informatico, e che innescheranno il processo rivoluzionario. Non a caso il primo computer commerciale fu costruito nel 1941. E così si tralasceranno tutti i progressi e i risultati della matematica, che per la Nostra Rivoluzione hanno posto le basi nel corso del secolo precedente a partire, dalle intuizioni di Ada Lovelace.
            La rubrica, dunque, se da un lato procederà ad un’analisi storica del fenomeno in questione, non mancherà dall’altra di metterne alcuni aspetti salienti connessi ai nostri giorni in maniera più ampia e approfondita. Ma non finisce qui. Nelle parti conclusive la rubrica procederà anche a delle proiezioni future, ovvero illustrerà quali potrebbero essere gli sviluppi di questa rivoluzione, che oramai è entrata prepotentemente in tutti gli ambiti della nostra esistenza, condizionandola e plasmandola, non solo sotto il profilo delle abitudini, ma anche nella prospettiva psicologica. Ed ecco che, verranno prese in esame le principali teorie sul futuro dell’informatica, ma del pari, si proporranno anche ipotesi di nostra costruzione.
            Quanto sin qui esposto si fonderà sul concetto aristotelico di Technè, che tradotto con semplicità si può intendere l’azione finalizzata ad uno scopo, e che si pone al contrario della Praxis, che è l’azione fine a se stessa. Techné che investe ed interessa tutti i saperi dell’uomo finalizzati a condizionare l’ambiente, nel quale spazio rientrano anche l’arte e la musica. Un sapere che non riduce i rischi dell’esistenza e non pone l’esistenza fuori dall’ambito problematico, ma sposta solo la linea confine dei problemi dell’esistenza stessa, sostanziandosi ciò nel processo evolutivo dell’Uomo, che altro non è che il passaggio da un piano problematico ad un altro più complesso. Va da sé che, l’esistenza dell’uomo non avrebbe senso là dove non esistesse un contesto che richiede delle soluzioni sempre nuove e rinnovate.

Andrea Tundo