HOME PAGE

domenica 30 ottobre 2022

Punto Nave: il 2022 – di Mauro Ragosta

 

           Dopo circa due anni silenzio sui temi di politica, economia e società, Maison Ragosta riattiva questi comparti culturali, composti quasi esclusivamente di spunti e di riflessioni, che sono stati centrali nei suoi due primi anni di attività, ovvero nel 2019 e nel 2020, in linea con la sua strategia di fondo che mira sostanzialmente all’intrattenimento.

            Questo ritorno è caratterizzato da una marcatura ancora più forte sull’assenza di uno specifico orientamento politico, in linea con le dinamiche di scenari più ampi, che vedono l’intellettuale posto nel ruolo dell’osservatore, quasi asettico. Un orientamento dichiarato oramai pubblicamente sia da noti intellettuali sia di destra sia di sinistra. Da Veneziani a Cacciari il mestiere dell’intellettuale è quello della sintesi e della presa d’atto, di colui che riesce ad avere una visione d’insieme. Un ruolo non sposato da tutti, ma oramai il processo è stato avviato e, dato lo scenario, difficilmente potrà essere arrestato.

            E così dopo oltre cento anni di attività in prima linea, a partire con la Seconda Repubblica, gli intellettuali sono stati relegati al ruolo di “supporter” dei politici. Un processo lento che si è evoluto nella Terza Repubblica portando a fargli svolgere, soprattutto a quelli di prima linea, un ruolo tecnicamente di “commentatore” di ciò che succede in politica, in economia, nella società. Una crescita o una deminutio?

            Sulla domanda si tornerà in seguito, anche se molto stimolante si presenta per chi scrive e ci si immagina, anche per chi legge. Ma veniamo al punto di questo pezzo, che tenta di produrre una sintesi del 2022.

            Ora, premesso che nel 2020 e nel 2021, a seguito della Covid-Economia, che ha fatto schizzare in alto, come mai si era visto prima, il debito dello Stato e ha permesso un possente trasferimento di ricchezza nel settore sanitario, la vera novità del nostro tempo è rappresentata da una modificazione strutturale dell’economia, che ha visto l’avvio delle pratiche del Telelavoro e del Bonus Statale. Due elementi questi che saranno strutturali negli anni che verranno, per molte ragioni, ed in primis per il premere dell’informatizzazione e della robotizzazione dei processi produttivi, che saranno sempre più pregnanti ed inarrestabili nel futuro. Nel 2022, invece, sono emerse altre due novità.

            Il 2022 si è aperto con la guerra in Ucraina, che mese dopo mese ha mostrato il suo vero volto, ovvero quello di “momento flettente” -usando un linguaggio da ingegneri civili- dove si scaricano tutti i processi di aggiustamento delle posizioni di potere politico ed economico delle aree più sviluppate del Globo. Per i più attenti osservatori è evidente che gli sviluppi della scienza e dell’applicazione tecnologica hanno fortemente compromesso le relazioni tra i vari blocchi di controllo dei vari territori, le cui tensioni emergono in Ucraina, come momento “dialogante”.

            Da questa lettura, va da sé che la guerra in Ucraina durerà fino a quando non si troveranno nuovi equilibri economici e di potere a livello globale, che porteranno quasi sicuramente una potente accelerazione degli sviluppi della società, di una società nuova, magari dove saranno centrali, tra gli altri, il Bonus Statale e il telelavoro.

            Ad aiutare il consenso popolare per queste soluzioni, vi sarà l’inflazione, che già oggi in Italia ha superato il 10%. Inflazione che, in qualche modo pilotata, fa sentire tutto il suo peso sui portatori dei redditi più bassi, quelli che si adeguano molto lentamente all’aumento dei prezzi, invogliando così il comune cittadino a riorientare le sue scelte di vita, ovviamente nella direzione indicata dalle nuove tecnologie e dalla nuova economia, che stanno velocemente prendendo piede e diffusione.

            Il 2022, e almeno rispetto al caso italiano, può essere preso come momento d’avvio effettivo della crisi della politica popolare. Il basso tasso di afflusso alle urne nell’ultima tornata elettorale, il più basso da che esiste la Repubblica, da un lato, e dall’altro una scarsa partecipazione e sensibilità nei confronti di coloro che si autodefiniscono complottisti e contro il Sistema, mette in luce che una fetta importante della popolazione italiana ha messo in soffitta qualsiasi argomento politico. Molti sono i cittadini che non vogliono più “giocare” né al gioco della democrazia, ma neanche al gioco del sovversivo, dell’antisistema, chiudendosi in una sorta di autismo sociale più soddisfacente dal punto di vista esistenziale.

            Certamente, lo sviluppo culturale della popolazione è la prima causa di tale situazione, in quanto mette in luce le incongruenze strutturali della Costituzione (si veda ad esempio la questione legata al vincolo di mandato, art.68 della nostra costituzione) e del sistema politico ufficiale preso nel suo complesso, che non convince più…

 

Mauro Ragosta

mercoledì 12 ottobre 2022

Saper Fotografare (parte dodicesima): il ritratto – di Mauro Ragosta

 


           Un “clauster” nell’arte della fotografia, ma non solo, è rappresentato dalla ritrattistica, la quale richiede molte abilità e non solo tecniche, ma anche sul piano delle competenze trasversali fino ad arrivare alle metabilità. Si è detto molto sull’arte del fotografare in questa rubrica, con la scusa di affrontarne i suoi vari argomenti e partizioni, ma molto altro v’è da dire e questa volta con la scusa di dare delle “dritte” per la realizzazione di un ritratto, si affronteranno alcuni temi fondamentali.

            Per tenere a mente le più importanti asserzioni formulate fino ad ora, qui ricorderemo che l’arte della fotografia possiamo distinguerla in Arte Bassa e Arte Somma, dove la prima ha come obiettivo principale il riprodurre in maniera quanto più fedele ciò che si vede, mentre la seconda tende ad interpretare quanto si osserva. L’Arte Bassa tende, insomma, a fare una fotocopia perfetta dell’osservato, mentre l’Arte Somma va in profondità e cerca di avvicinarsi alla Realtà con varie tecniche, retoriche e stratagemmi, senza mai riuscirci, ovviamente. Certamente, l’Arte Fotografica Somma di certo riesce a fornire un’immagine molto vicina alla realtà, sia sotto il profilo intellettivo, ma anche sotto quello emotivo. Da qui, va da sé che l’Arte Bassa dipende esclusivamente dalla tecnologia in possesso, l’Arte Somma dipende, invece, dal proprio bagaglio culturale e speculativo.

           Dal punto di vista comunicativo, invece, l’Arte Fotografica si può distinguere tra ciò che si vuol comunicare a sé stessi, ovvero l’arte di prendere appunti a proprio uso esclusivo, oppure ciò che si vuol comunicare agli altri. In molti affermano, in una prospettiva onanistica, che la Cultura come l’Arte non devono avere intenti comunicativi, ma il solo scopo di creare. Ovvio che tali affermazioni sono smentite senza grande difficolta dal dispiegarsi della Realtà stessa e dei fatti. Anche l’art therapy ha forti valenze comunicative…

         Tutto ciò premesso, entriamo nel vivo del tema oggetto del presente “pezzo”. E qui va subito evidenziato, nella prospettiva dell’Arte Fotografica Alta, che ogni primo piano richiede una sua elaborazione, una propria speculazione. E questo perché un primo piano non spiega in toto il soggetto ritratto, ma uno dei suoi aspetti. L’essere umano, a tal riguardo, è come una pietra preziosa, una gemma col taglio brillante. Peraltro, l’essere umano, nonostante gli sviluppi della robotica e dell’intelligenza artificiale, conserva un quoziente molto alto di Mistero. Ne deriva che i volti di un soggetto sono numerosissimi.

            E qui, la prima cosa da fare è capire quali dei tanti aspetti far emergere dal Nostro primo piano. Una volta definito tale obiettivo, si passa alla costruzione dell’immagine. Ora, per la sua realizzazione si può partire da una prima speculazione, che giunge ad una triade di domande da farsi. In genere i fotografi meno esperti mostrano un carattere e un’impostazione dispotici o interagiscono col soggetto da ritrarre lo stretto indispensabile per realizzare lo scatto.

            In un rapporto professionale, il fotografo prima di realizzare un primo piano deve instaurare una vera e propria relazione col soggetto. Deve conoscerlo se non bene, quanto meno a sufficienza e da qui giungere, dopo aver inquadrato che tipo di aspetto far emergere, se questo deve conformarsi a come lo vede il soggetto ritratto o a come lo vede il fotografo ritrattista, oppure ancora a come lo vede il prossimo, magari una cerchia ristretta di persone o anche un vasto pubblico.

            Questo appare un passaggio fondamentale. Spesso il fotografo dà una sua interpretazione del soggetto fotografato, nella quale lo stesso non si ritrova, volendo far emergere di sé magari la sua visione di sé medesimo.

            Ora, al di là delle diverse espressioni da ritrarre, va sottolineato che l’intero ritratto è un complesso simbolico che va costruito con attenzione ed intelligenza. Al riguardo, i primi tre gruppi di simboli attengono al piano delle luci, dei cromatismi e dei simboli stricto sensu.

            A tal riguardo e con riferimento alle luci, sia naturali che artficiali, bisogna tenere sempre presente che un conto è far giungere la luce principale sul volto del soggetto da destra, o da sinistra, o in maniera centrale. E ancora valenza importante ha l’operare anche con una luce posteriore, o con degli spot.

            Con riferimento ai cromatismi, qui oltre a trovare il giusto equilibrio tra i colori messi in campo, bisogna avere chiare le idee sulla valenza concettuale di ciascun colore. E ciò vale anche sugli accessori usati dal soggetto da ritrarre, dove ciascuno deve avere il giusto significato.

            Ma non finisce qui. I ritratti, in linea generale si distinguono in tre categorie o tre tipi di inquadratura: i primi piani più o meno spinti; il mezzo busto; all’americana, ovvero inquadrando tre quarti dell’intera persona, dal ginocchio in su, insomma.

         Tra le varie considerazioni da farsi, nel primo piano, anche spinto, molta attenzione bisogna riporre nella posa del volto e da qui alla posizione degli occhi. Tra i tanti esempi che si possono fare è quello dello sguardo di traverso, che può essere fatto con l’occhio destro o sinistro. Ovviamente, privilegiare uno o l’altro ha valenza diversa.

        E seguendo, nel mezzo busto e nell’inquadratura all’americana, molta attenzione va fatta alla gestualità. Qui bisogna sapere il valore di tutti i gesti, o della maggior parte di questi. Con riferimento allo sfondo, anche qui, ogni sfondo ha significati precisi e che magari si amplificano o si annullano con altre componenti dell’inquadratura.

           Per finire, un cenno merita l’angolo di ripresa, che come è ovvio può essere dall’alto, dal basso e in linea. Anche qui i significati variano e sono tutti diversi.

           Come al solito, Maison Ragosta non offre disamine specifiche ed analitiche, ma una serie di spunti di riflessione e utili sintesi per i suoi lettori, che, sempre molto esigenti, pare gradiscano questo tipo di impostazione. Così, nell’augurarci di aver colto ancora una volta nel segno, ci riaggiorniamo al prossimo appuntamento, nel quale ci si intratterrà sul come costruire un book fotografico.

 

mauro ragosta

           

venerdì 16 settembre 2022

Rivoluzione Informatica (parte ottava): Il secondo decennio degli anni 2000 - di Andrea Tundo

 

Eccoci ritrovati per l’ultimo capitolo di questa Rubrica dedicata alla Rivoluzione Informatica e al progresso tecnologico, in definitiva. In questa sede, sulla falsa riga del precedente appuntamento, continueremo le nostre analisi con i pirotecninci avanzamenti, che hanno caratterizzato il secondo decennio del 2000, fino ad arrivare ai giorni nostri. Abbiamo, finora, lasciato un mondo dominato dai computer e pian piano sempre più colonizzato dagli smartphone, mentre le pieghe del sociale vengono ricamate dalle fitte reti di connessioni social, creando un nuovo livello di comunicazione sovrapposto a quello della vita reale, altrettanto influente su di essa.

Sicché, dal 2010 in poi, vediamo il progressivo sviluppo e diffusione degli smartphone, che altro non sono dei computer tascabili, ai quali mancava ancora, fino a qualche tempo addietro, solo una cosa per divenire un accessorio di uso massificato su scala globale: la connessione mobile! Fino a poco più di 15 anni fa infatti non era così scontato avere una connessione internet esterna, senza spendere un patrimonio (va ricordato, in più, che si usavano ancora le cabine telefoniche in molti comuni d’Italia). Sotto lo slogan di “mobile first” tutte le emergenti compagnie tech, hanno velocemente creato una rete sempre in grado di farti connettere nel mondo virtuale ovunque ti trovi. E così, in brevissimo, gran parte degli individui del pianeta Terra, hanno oggi a disposizione un'infinità di Mondi in una sola mano, attraverso lo smartphone.

     L’implementazione di interfacce mobile utilizzabili direttamente da telefoni, combinate con modalità di iscrizione poco complesse e senza particolari metodi di verifica, hanno fatto si che i social dilagassero. A partire da Facebook e Twitter, ma anche Instagram e TikTok. E poi Tinder, Grindr, ma anche LinkedIn, Anobii, Medium, Flickr e tutti gli altri.

      Quando l'infrastruttura di internet, la rete delle reti, è stata costruita alla fine degli anni Sessanta, nessuno avrebbe potuto neanche immaginare cosa potesse diventare il web (creato da Tim Berners-Lee alla fine degli anni Ottanta e reso popolare da Netscape a metà degli anni Novanta) figuriamoci l'esistenza di reti sociali mediate dalla potenza digitale. Eppure era facile immaginarlo: la voglia di socialità è quello che contraddistingue le persone e, non solo; gli stessi mercati sono conversazioni, come aveva affermato nella prima delle sue 95 tesi il Manifesto Cluetrain.

            E così, su unica rete si è proceduto a connettere ed interconnettere non solo i computer e i personal computer, ma anche gli smartphone. E non solo, anche tutti i tipi di Robot, che usufruiscono, utilizzano e gestiscono la rete. E ciò a tal punto che, l’esistenza umana oggi si bipartisce tra esistenza virtuale e esistenza reale, ma non basta. Esiste una società virtuale e una società reale. Ovviamente, il confine tra i due Mondi non è netto, ma è sotto gli occhi di tutti che la vita si svolge sia in presenza sia tramite computer, qualunque esso sia.

Si assiste nel mondo virtuale a compravendita di like e follower, bolle informative, manipolazione della pubblica opinione e delle elezioni, privacy, bullismo online, revenge porn, fake news, deepfakes, odio online sono tutte conseguenze di questo mix socio-tecnologico, insieme alla nascita degli youtuber, degli influencer e di categorie ancora inedite di maître à penser digitali. Come faremmo a vivere senza?

Ma la tana del “bianconiglio” non finisce qui, l’antro più oscuro nel quale guardare riguarda l’influenza sociale che questi possenti apparati digitali posseggono su enormi masse di uomini e le problematiche di sicurezza sociale ed individuale che questa comporta. In primo luogo, prendendo il caso Cambridge Analytica già citato nel capitolo precedente, analizziamo lo scandalo più importante per la storia della privacy e delle fake news, che non è niente di più che lo stesso. È bastato un quiz con l'app gratuita "This is your digital life" su Facebook fatto a 270mila persone (una goccia nel mare dei due miliardi di utenti del social di Mark Zuckerberg) per consentire a Cambridge Analytica di profilare quasi duecento volte il numero degli utenti senza che ne se rendessero conto.

     È chiaro, dunque, che i grandi giganti tech hanno per le mani degli strumenti talmente tanto potenti da minare le logiche su cui si fondano non solo i nostri sistemi sociali Occidentali, ma la società stessa. Prendendo in prestito le parole di Harari: “Se gli umani sono animali hackerabili e se le nostre scelte e opinioni non riflettono il nostro libero arbitrio, quale dovrebbe essere il ruolo della democrazia? Come vivi quando ti rendi conto che il tuo pensiero potrebbe essere plasmato dal governo, che il tuo amigdala potrebbe funzionare per Putin, ad esempio, e che la prossima idea che si affaccia nella tua mente potrebbe essere il prodotto di qualche algoritmo che ti conosce meglio di quanto tu conosca te stesso?”

     In secondo luogo, ma non per importanza, ciascuno di noi inserisce regolarmente numerose informazionali personali, riguardanti ogni sfaccettatura della propria esistenza, sui social network, fino ad arrivare a rilasciare persino le nostre impronte digitali ad Apple o la scannerizzazione delle linee del nostro volto a società che controllano strumenti come FaceApp. È molto difficile avere contezza di quanto di prezioso gettiamo nel mare del web, lasciando il tutto incustodito per gli attacchi di malintenzionati siano essi singoli hacker, che privilegiano un attacco individuale (es. furto d’identità), o grandi società che sfruttano il calcolo combinatorio dei Big data, per raggruppare grandi quantità di dati di molte persone per utilizzarli verso i propri fini commerciali.

    Quando parliamo di Big Data ci riferiamo a computer in grado di operare calcoli molto complessi, comprendenti un’incredibile quantità di dati e variabili, ed i suoi sostituti sono già alle porte, i quali promettono applicazioni tecniche che potrebbero essere devastanti: i computer quantistici. Cosa sono? In breve computer che non usano i Bit e il classico linguaggio binario, ma Bit quantistici, i quali possono possedere più valori simultaneamente, non basandosi sulle regole della meccanica classica ma di quella quantistica.

     Un altro grande tema è la robotica che nell’ultimo decennio ha compiuto degli sviluppi incredibili. In prima battuta sarà oggetto della nostra trattazione non l’idea di robot umanoide a cui siamo abituati, che pure hanno fatto passi da gigante, bensì i “robot da combattimento” ed i soft robot. I primi sono macchine potenziate che già oggi vengono utlizzate in situazioni di guerriglia, come ad esempio i droni e i nuovi e sofisticatissimi cyberg-dog, armati fino ai denti. I soft robot sono invece sono composti di materie prime anche organiche, sono morbidi, elastici e flessibili. La loro grandezza può variare a seconda degli scopi perseguiti, possono essere anche grandi quanto un’unghia. Le loro applicazioni sono numerose nel campo della ricerca scientifica, vengono utilizzati per esplorare ambienti complessi come il fondo degli oceani, che della medicina, si possono effetturare operazioni invasive con soft robot in grado di “navigare” il corpo umano, o ancora essere utilizzati come armature, una sorta di rinforzo dell’esoscheletro.

    Quando si parla di robotica, tuttavia, è innegabile il riferimento all'imitazione dell’umano e all’intelligenza artificiale. In sintesi, al giorno d’oggi siamo dominati dagli algoritmi, i quali sovente hanno l’ultima parola tanto sulle nostre scelte come singoli (è google maps che sceglie quale percorso prenderò, Tinder con chi mi accoppierò) tanto sulle nostre scelte collettive (chi voterò nelle prossime elezioni?). Per tanto oggi l’intelligenza artificiale ad oggi si configura per lo più come macchine e strumenti in grado di riconoscere volti, e voci, giocare ai videogame, compiere operazioni come guidare un autoveicolo. Negli aeroporti di Tokio le assistenti sono donne-robot, che danno indicazioni di vario genere ai viaggiatori. Ma c’è di più. È già attiva una giornalista-robot, in grado di leggere un testo, fare una recensione scritta e provvedere anche all’intervista in presenza... Sono però ancora molto esigui i casi di sviluppo di un’intelligenza emotiva o addirittura di quella che si potrebbe chiamare “coscienza”, come nel celebre caso dell’ex ingegnere di Google, il quale aveva avuto un profondo dialogo con un AI.

       L’ultima tappa di questo nostro percorso è l'ingegneria genetica, la quale lancia segnali di distopismo verso il futuro. L’ingegneria genetica infatti è quella branca che si occupa di isolare, clonare ed inserire geni in un nuovo ambiente in modo tale da modificare le caratteristiche delle cellule riceventi. Sicché oggigiorno, granparte degli elementi con cui abbiamo a che fare ogni giorno, compresi noi stessi, sono modificati geneticamente. In linea generale, oramai appare tutto geneticamente modificato, da ciò che mangiamo a noi stessi…..

   In conclusione, a termine di questi capitoli, attraverso i quali abbiamo percorso l'evoluzione della materia regina del nostro secolo, l’informatica, possiamo in maniera più lucida distaccarci dai tecnicicsmi e dai discorsi specialistici e lasciarci con’immagine di più ampio respiro.

     Quello che potenti progressi tecnologici, foraggiati prima da un’organizzato apparato burocatico militare-statale e da un feroce concorso capitalista tra grandi società poi, è un mondo frastagliato e confuso nelle sue fondamenta, all’apparenza così diverso da ciò che prima d’ora si era visto all’interno delle organizzazioni umane, eppure... facciamo qualche passo indietro, quando gli uomini, ancora, credevano ai miriadi di dei nascosti nel cielo:

      Quando gli uomini credevano a potenti Dei nascosti nel cielo, essi costruivano templi per la loro divinità preferita, organizzavano celebrazioni in suo onore, offrivano sacrifici e tributi, donavano terre. Presso i Sumeri, quindi circa 6000 anni fa, i templi non erano soltanto luoghi di devozione, ma anche i più importanti centri politici ed economici. Le divinità sumere assumevano compiti simili a quello dei moderni marchi di successo e delle grandi società per azioni. Oggi, quest’ultime, sono soggetti di diritto che posseggono proprietà immobiliari, prestano denaro, assumono impiegati, danno il via ad imprese economiche. Ecco, nell’antica città di Uruk o Lagash le divinità ricoprivano la funzione di entità legali che possedevano campi e schiavi, davano e ricevevano prestiti, pagavano salari e costruivano dighe e canali. Poichè gli dei non litigano e non lasciano eredità, essi accumularono una quantità crescente di beni e potere, sempre più sumeri si trovarono impiegati in professioni connesse alla divinità. Proprio come nella San Francisco di oggi, Frank fa l’ingegnere per Google e Jessica la designer per Apple, mentre nell’antica Uruk una persona era impiegata presso il grande Dio Enki. I templi di Enki o di altri dei sovrastavano le città, e i loro divini loghi campeggiavano su edifici, prodotti e abiti. Per i sumeri Enki e Inanna erano reali proprio come per noi lo sono Apple e Google. Non sembra, in fin dei conti, essere cambiato nulla. 

Andrea Tundo

mercoledì 24 agosto 2022

Saper Fotografare (parte undicesima): Dialogo tra Eliana Lista e Mauro Ragosta sull'Arte Fotografica (live)

 

       Si propone qui, in versione live, il dialogo tra Eliana Lista e Mauro Ragosta sull'Arte della Fotografia, in occasione della presentazione della mostra fotografica di Mauro Ragosta, tenutasi a Lecce nel settembre del 2017, dal titolo "Cercando l'anima". Una performance che offre vari spunti di riflessione per chi ama apprendere e praticare l'Arte della Fotografia. Buona Visione cliccando sul seguente link o copiandolo e ricpondolo poi, in un motore di ricerca:

https://www.facebook.com/catia.melcore/videos/10209669573352883

Mauro Ragosta


venerdì 12 agosto 2022

Post-Evento n°15 – Rossella Maggio fuori Tempo …senza Tempo! – di Mauro Ragosta

 

            Ieri a Neviano, all’interno di una serata decisamente mondana, calata nel grande casale di Salvatore Mastria e Paola Carrozzini, la presentazione in prima assoluta dell’ultimo lavoro narrativodi Rossella Maggio: Capodanno a Shiraz.

            A dialogare con Rossella, la sobria Sondra dell’Oco, che, va subito evidenziato, è riuscita a far “confessare” alla nostra scrittrice leccese la struttura portante dei “credo” che assistono la sua opera letteraria e poetica. Maison Ragosta da tempo segue Rossella Maggio nelle sue varie esposizioni ed espressioni, e mai come in questa benigna e tranquilla occasione nevianese la scrittrice si è esposta così tanto, mostrando l’impronta originaria della sua arte.

            Non si sa se per fortuna o per sfortuna, il prezioso pensiero di Rossella Maggio non è stato contestualizzato all’attuale momento storico della nostra Civiltà, che vive un crepuscolo incantato, nel quale il pensiero della leccese avrebbe aperto squarci importanti su ciò che verrà e neanche fra moltissimo tempo. Ma andiamo per ordine.

            Capodanno a Shiraz è un’autobiografia autentica, non velata, anzi del tutto dichiarata con forza. Si sostanzia nella narrazione di un frangente di vita della famiglia Mastria, a cui per via materna Rossella è legata. I protagonisti principali del racconto sono, oltre a Rossella, il cugino Salvatore Mastria e sua moglie Paola Carrozzini, che, come s’è già messo in evidenza, hanno promosso la serata e ospitato la presentazione del volume di Rossella.

            Non è azzardato far rientrare questo lavoro tra la pubblicistica ”riservata” se non proprio d’élite, potendola far rientrare nel filone delle storie familiari, da un lato e dall’altro, tra le autobiografie autentiche, che non si presentano, almeno in provincia di Lecce, particolarmente sviluppate, al contrario di quelle “travestite” che proliferano abbondanti.

            Fin qui si rimane nell’ordinario, ma scendendo sul piano dei contenuti per lo più espliciti, Capodanno a Shiraz è un racconto senza storia, se per questa si intende una sequenza di fatti in senso cronologico. Quello di Rossella potrebbe farsi rientrare nell’anistoria, ovvero in una struttura narrativa in cui la variabile tempo viene meno, per cui personaggi e fatti si muovono in maniera indipendente rispetto allo spazio-tempo.

            In verità, questa operazione anistorica non è una novità nell’opera di Rossella Maggio, permeando infatti quasi tutta la sua produzione, ma questa volta a Neviano, tale caratteristica si è mostrata con forza, mettendo in luce un pensiero d’avanguardia della Nostra Maggio, che supera la cultura corrente legata al pensiero illuministico, oggi decisamente superato. Il relativismo, ma tutta la fisica quantistica, da un lato, e dall’altro gli sviluppi dell’intelligenza artificiale, della robotica e dall’ingegneria genetica, hanno di fatto aperto le porte ad una nuova Civiltà, che mostra già i suoi segni, sebbene a livello embrionale, e dove l’impostazione delle idee della Maggio consentono proiezioni e speculazioni di tutto rilievo in tale direzione. Potrebbe dirsi che Rossella ha e propone un modo di pensare e di porsi rispetto alla realtà, dei tempi che stanno per venire

            Al di là di ciò, Capodanno a Shiraz narra di un viaggio di qualche anno fa in Iran dei cugini di Rossella, realizzato per trascorrere buona parte delle feste di fine anno, dove varie circostanze rendono questa esperienza unica, appassionante, che tiene col fiato sospeso fino alla conclusione.

            L’abbrivo alla serata, che vedeva un parterre folto e molto qualificato, anche sotto il profilo istituzionale, è stato dato dalla padrona di casa, Paola Carrozzini. È seguita una lunga e molto interessante premessa della Dall’Oco, che con pregiato e spiccato aplomb universitario, ha appassionato gli astanti, riuscendo infatti a toccare molti dei punti nevralgici delle sensibilità dei presenti. Sicché, dopo, il “botta e risposta” con Rossella. 

          La presentazione è stata chiusa dal padrone di casa, Salvatore Mastria, che ringraziando per il gradevole momento culturale, ha donato delle splendide orchidee alle sue protagoniste ed ha invitato tutti a bordo piscina per un cocktail e per ascoltare della buona musica, dando così compimento a questo frangente di un agosto salentino come sempre ricco di novità ed emozioni.

            E per concludere, va evidenziato che quella del Casale dei Mastria a Neviano non è stata una proiezione episodica della Maggio, ma solo l’inizio di una lunga serie di presentazioni nel Salento, e non solo, di cui la prossima sarà giovedì 8 settembre presso la Feltrinelli di Lecce.

 

Mauro Ragosta

 

Nota: le foto sono state realizzate volutamente con la tecnica del mosso, perché si è privilegiata la prospettiva evocativa anziché quella descrittiva strcto sensu.

venerdì 5 agosto 2022

La Rivoluzione Informatica (parte settima): gli anni 2000 - di Andrea Tundo



     In un arco di tempo tutto sommato ristretto come quello che va dal 2000 a oggi si è consumata un'evoluzione tecnologica senza precedenti. Sono numerosissime infatti, le innovazioni che si sono susseguite nel corso degli anni 2000. Alcune si sono poste come alberi sempre verdi, traguardi senza tempo, capisaldi in grado di reggere a lungo anche alle innovazioni future, altre invece sono state solo come rapidi flash, apparecchiature transitorie. Per ragioni di organizzazione delle informazioni, in questo capitolo affronteremo unicamente la prima decade del nuovo millennio, ma si tratta di una divisione formale e anche piuttosto arbitraria in quanto, le scoperte tecnologiche che stanno guidando i nostri giorni verso la terza rivoluzione del web e una nuova visione dell’umano hanno avuto i loro fondamenti teorici e pratici prima degli anni ‘10’ del XXI secolo

    Ad ogni modo, ciò che bisogna comprendere è che d’ora in poi i computer e le macchine sono parte integrante e fondamentale nei processi di innovazione in qualsiasi campo del sapere umano, sia esso scientifico o umanistico, in altre parole non si parla più di rivoluzione informatica in sè, ma di rivoluzione informatica di altre discipline. Oltre a questo, le tecnologie sono anche sempre più piccole, sofisticate e collegate al corpo umano. Infatti, vicino all’alba dei 2000, tanto oramai l’Umanità dipendeva dai sistemi informatici che un’orda di tecnici in tutto il mondo si preoccupava dell’eventualità di un Millenium Bug, ovvero l’apocalisse informatica, che sembrava dovesse abbattersi su ogni PC. Il baco del millennio consisteva nell’impossibilità da parte della maggioranza dei sistemi informatici di allora di leggere l’anno ’00 come 2000: il rischio era di trovarsi improvvisamente al 1° gennaio 1900, con il mondo in preda a una specie di “rivolta delle macchine”. Così ovviamente, non fu.

     L’Umanità è ormai lanciata verso l’abbattimento di ogni confine, è possibile comunicare e lo sarà sempre di più con chiunque, in qualsiasi parte del mondo. Dunque, è anche possibile essere controllati ovunque, in qualsiasi parte del mondo. Una delle invenzioni più importanti di questo periodo, infatti, è proprio Google Maps che rivoluziona per sempre il modo di guardare una mappa, iniziando per primo quel processo ormai inesorabile che consegna la capacità decisionale degli individui agli algoritmi semplificatori. Non ci sarà bisogno di guardare la strada e memorizzare dei punti di riferimento, non ci sarà bisogno di sforzarsi.

     In una corsa senza pause dall’uscita dello storico Nokia 3310 fino al primo Iphone prodotto da Steve Jobs, quasi ogni persona sulla terra possiede un telefonino che, dal 2007 in poi, con l’invenzione del touch-screen e dell’applicazioni cellulari (che sostituiscono i sowftare per le apparecchiature mobili) divengono un prolungamento del sistema neuronale umano. Il cellulare collega il nostro cervello e prolunga le nostre capacità in qualsiasi momento in altre dimensioni, che non sono tangibili mentre operiamo, siamo collegati con altro che, se da un lato possiamo tentare di influenzare, dall’altro ci influenza potentemente. L’uomo come mai prima d’ora ha accesso ad un portale infinito di informazioni e nessuna educazione e contezza nel gestirle.

      È ora di parlare di ciò che è stata sicuramente l’innovazione del decennio: I Social Network, emblema dell’Era dell’informazione. Piattaforme, che danno avvio all’era del web 2.0, che forniscono servizi per la gestione dei rapporti e delle reti sociali. I social si sono imposti, soprattutto con Facebook, nel rivoluzionare quasi ogni paradigma del modo di fare le cose. In primis è iniziato a mutare il modo in cui gli esseri umani si relazionano e comunicano fra loro, non solo in termini di velocità, infatti, i messaggi e le condivisioni sui social permettono un’estrema rapidità di azione e reazione, ma soprattutto rendendo più complesse le cose.

     Se inizialmente la comunicazione sui social poteva apparire come una riproduzione pressochè simile delle dinamiche della vita reale, presto, come già accadeva nelle sette online e dei blog reconditi del primo internet, all’interno dei social si sono sviluppati un linguaggio, delle dinamiche comportamentali, dei ritmi e altri codici propri, diversi da quelli della vita “fisica”. Insomma una realtà che si sovrappone alla realtà.

     I social hanno inoltre cambiato per sempre il mondo dell’informazione in senso stretto, dando la stoccata definitiva ai media tradizionali (giornali e televisioni) che faticheranno sempre di più a competere con la comodità e rapidità dello scambio di contenuti su queste piattaforme, le quali oltretutto, attraverso l’accumolo massiccio di dati e informazioni personali degli utenti, sono in grado di indirizzare le volontà degli stessi verso una determinata tipologia di contenuto piuttosto che un’altra, con conseguenze politiche, sociali ed economiche enormi che si riveleranno nel decennio successivo (Cambridge Analitica). Ancora, terminando un processo che avuto inizio con la televisione, l’uomo sarà ormai sempre più schiavo dell’immagine, dei colori, dell’interazione video e della brevità delle tematiche. Un uomo medio non è più in grado di mantenere la concentrazione su un contenuto per più di 7 secondi netti prima di “scrollare” verso uno nuovo. Situazione paradossale se si pensa all’aumento della complessità del sociale che avrebbe dovuto richiedere un aumento proporzionale della capacità di approfondimento. Siamo sempre più collegati, ma non si sa bene con cosa.

     Umberto Eco aveva, in maniera lungimirante, compreso questa dinamica affermando che Internet avrebbe reso “i ricchi, ancora più ricchi e i poveri, ancora più poveri” riferendosi a povertà e ricchezza rispetto alla qualità delle informazioni in proprio possesso. La struttura stessa della rete con la sua vastità e ampiezza di contenuti, necessità di piattaforme e sistemi che facciano da filtro fra queste miriadi di informazioni, colui che ha i mezzi per discernere e selezionare le prelibatezze dall’immondizia si troverà in una condizione immensamente privilegiata, al contrario chi non è dotato di queste capacità continuerà a nutrirsi dall’immondizia dell’internet senza possibilità di rendersene conto, ormai fagocitato dalle dinamiche di rete. “Il colto del XXI secolo non sarà colui che avrà memorizzato il maggior numero di nozioni e conoscenze, ma colui che sarà in grado di trovare l’informazione migliore fra le miriadi disponibili.” Parallalamente, in questi anni viene alla luce Wikipedia, la più grande enciclopedia online al mondo, in grado di fornire nozioni generali e minime su (quasi) qualsiasi argomento esistente.

    In conclusione, è bene ritornare sui passi iniziali e fornire un breve approfondimento su quanto l’informatica si sia staccata da sé per fornire rivoluzioni in ogni ambito dello scibile umano, segnando scoperte e rivoluzioni epocali.

In biologia nuove macchine di calcolo hanno permesso la mappatura di tutto il genoma umano e la creazione di cellule sintetiche, trasportandoci nell’era dell’eugenetica, oggi l’uomo è in grado di operare come un “Dio”: clonare essere viventi, perfezionarsi geneticamente (e non solo esteticamente), far partorire uomini... e tutto questo è il frutto della rivoluzione informatica.

Nell’ambito dell’ingeneria questi anni ci regalano la stampante 3D grazie alla quale è stato possibile operare importanti rivoluzioni in ambito medico. In fisica, macchine come l’accelleratore di particelle ha reso possibile la scoperta del Bosone di Higgs, dei buchi neri e delle onde gravitazionali, dando concretezza esemplare alle teorie di Einstein.

La sintesi qui riportata ci mostra, come già detto, l’entrata in una nuova Era dell’umano: sempre più dipendente dalle macchine e sempre più desideroso di assomigliarli. Se in questo capitolo si sono affrontati concetti, bene o male assorbiti e resi consapevoli in un lettore erudito, prestando maggiormente attenzione alle dinamiche sociali piuttosto che ai tecnicismi informatici, nel prossimo dovremmo nuovamente affrontare astrazioni e idee più complesse, scendendo sovente nel tecnico e toccando con mano il prossimo futuro dell’Umanità che sembrava fino a poco fa fantascienza. Si parlerà di computer quantistici, di microchip, di intelligenze artificiali, di realtà virtuali... della Nuova Era dell’internet

Andrea Tundo

mercoledì 27 luglio 2022

La Rivoluzione Informatica (parte sesta): gli anni '90 - di Andrea Tundo

 

         Seguendo gli sviluppi di ciò che è stato introdotto la parte precedente, la seconda metà degli anni '80 e i primi anni '90 sono stati caratterizzati dai personal computer: i pc si diffondono nella gran parte delle case, con un crollo dei prezzi e un’ulteriore miniaturizzazione delle componenti, essi si avviano a diventare un oggetto imprescindibile della vita quotidiana. Ma sono solo  lo sviluppo e la diffusione di Internet che, alla fine degli anni Novanta, ne ampliano notevolmente le funzione e l'ambito di utilità.

       Dunque negli anni 90’ siamo nella fase di sviluppo della rete, dell’internet, che segna l’era dell'informatica distribuita, con il sogno di portare tutto il potenziale della tecnologia sulle scrivanie degli utenti. Il modello organizzativo va di pari passo con la mondo della tecnologia, e infatti questo è stato il periodo del decentramento. Da qui, non ci interessa sapere dove sono le applicazioni o dove risiedono i dati. L'importante è avere accesso a ciò che ci serve nel modo e nel momento giusto. In un certo senso, tutte le risorse informatiche possono essere in rete.

      Inizia ad emergere così un modello informatico veramente nuovo, simile a quello che caratterizza, per esempio, la distribuzione dell'energia. Nessuno si preoccupa di chi ci eroga la corrente elettrica: basta che sia disponibile quando serve. Quindi in maniera analoga a come giriamo la manovella del gas o premiamo l’interruttore della luce, digitiamo una qualche cosa sulla trastiera con la speranza di trovarla in rete.

     Questa assoluta rivoluzione è resa possibile dalla nascita del Word Wide Web, ovvero il principale servizio di internet, quella “tela” sulla quale attraverso i protocolli di rete viaggiamo in sicurezza, messo a punto dall’informatico Tim Berners Lee al CERN di Ginevra, sviluppando le teorie sull’ Iper-testo di Vannevar Bush. Quello che bisogna comprendere è che il WWW è la prima rete aperta al pubblico, prima di essa internet era sia formalmente che praticamente accessibile solo a centri universitari e governativi, studenti e grandi società private.

     In breve tempo tutti comprendono le potenzialità di una rete internet aperta, e cominciano a svilupparsi vari terminali, i cosidetti Broswer o Motori di Ricerca, per accedervi. Presto nascerà Mosaic, motore di ricerca che venne creato presso il National Center for Supercomputing Applications (NCSA), nell’Università dell’Illinois Urbana-Champaign, dall’informatico Marc Andreessen. Si tratta del primo browser web popolare e il primo antenato di Mozilla Firefox.

     NCSA Mosaic girava su computer Windows, era facile da usare e forniva accesso alle prime pagine web a chiunque avesse un PC, chat room e raccolte di immagini. L’anno successivo (1994), Andreessen fondò Netscape e distribuì Netscape Navigator al pubblico. Ebbe un enorme successo e fu il primo browser per tutti. Ha inizio la Guerra dei Broswer:

      Nel 1995, Netscape Navigator non rappresentava l’unico modo per andare online. Il gigante del software per computer Microsoft ottenne la licenza del vecchio codice Mosaic e creò la propria finestra sul Web, Internet Explorer. Il suo rilascio scatenò una guerra. Netscape e Microsoft lavorarono febbrilmente per creare nuove versioni dei loro programmi, ciascuno cercando di superare l’altro con prodotti migliori e più veloci. Netscape creò e distribuì JavaScript, offrendo ai siti web potenti capacità di elaborazione che prima non avevano. (Crearono anche il famigerato < blink > tag.) Microsoft rilanciò con i fogli di stile, Cascading Style Sheets (CSS), che sono poi diventati lo standard di progettazione delle pagine web. In seguito Microsoft, si assicurò il dominio, iniziando a distribuire Internet Explorer con il proprio sistema operativo Windows. In 4 anni raggiunse il 75% del mercato e nel 1999 il 99%. Insomma internet è divenuto un successo mondiale ed ha velocizzato le connessioni fra gli umani, ma è molto lontano da ciò che conosciamo oggi, le connessioni avvenivano ancora su linee analogiche, ogni minuto di connessione aveva un costo, la maggior parte dei siti internet erano composti da solo testo e la stragrande maggioranza degli individui utilizzava internet solamente per scaricare la posta elettronica.

     E’ inoltre importante ricordare che internet fino a questo momento è stato sostenuto finanziariamente dalla National Science Foundation e varie restrizioni ne impedivano ancora un suo uso commerciale. Ora L'informazione comincia a diventare sempre più un'attività economica, giacché industrie ed istituzioni sono coinvolte nella raccolta, elaborazione, produzione, trasmissione e distribuzione dell'informazione. Fra gli eventi più rilevanti, và menzionata la creazione di Napster, la prima applicazione web che permetteva di scaricare gratuitamente musica sul proprio computer (file-sharing). Napster avrà un impatto importante in termini di cosa si può fare con Internet, e l’idea di creare esperienze gratuite online plasmerà in seguito un ragazzino di nome Mark Zuckemberg che fonderà Facebook. Inoltre, la combinazione di motori di ricerca, browser grafici e provider di servizi web ha permesso la nascita degli e-commerce e l’inizio di quel processo che ad oggi ha portato a farci compiere la maggior parte dei nostri acquisti online, i più importanti fra tutti Amazon ed Ebay che vengono fondate proprio in questi anni.

     Nonostante i limiti ancora evidenti di internet, è chiaro, che tutto ciò pone le basi necessarie per gli sviluppi tecnologici ed informatici successivi: da un lato, dei decenni a venire, vedremo la saturazione degli sviluppi delle reti ipertestuali, fino ad arrivare ad oggi e alla concezione degli spazi virtuali composti da realtà ed esperienze interattive (metaverso, realtà aumentata), dall’altro, con effetti molto più visibili nel breve periodo, la nascita della rete aperta porta con sè la questione dell’'enorme quantità di dati messa a disposizione di tutti. Di questo ci occuperemo subito.

    Come forse nel corso delle righe precedenti il lettore più acuto avrà potuto immaginare, parallelamente alla massificazione dell’utilizzo di internet e all’accumolo crescente di dati e contenuti nella rete, nascono i cosidetti Supercomputer, definizone con la quale si allude sia ai marchingegni atti a raccogliere e a sintetizzare un numero enrome di informazioni sia centri di ricerca organizzati a tale scopo. E’ chiaro che solo grandi aziende come IBM o grossi poli universitari potevano portare avanti azioni di questo tipo; sebbene ogni istituzione perseguisse fini diversi con lo studio dei dati della rete: dalle previsioni metereologiche, alla biologia, chimica e fisica computazionale, fino al data management, la maggior parte degli sforzi da qui a poco verrà focalizzata sulla difesa interna e la sicurezza dei sistemi informatici, due cose che vanno di pari passo con la digitalizzazione degli apparati di potere, da qui a poco infatti vi sarà l’attentato alle Torri Gemelle, evento che scuoterà nelle fondamenta il mondo occidentale. Riportando in seguito le parole dell’ex presidente di IBM Italia, Elio Catania:

“Il punto è nella nostra capacità di leggere attraverso tutti i dati disponibili in Internet quello che sta avvenendo. Non è certamente facile aggregare e disaggregare le enormi quantità di dati digitali presenti in rete per scoprire, per così dire trasversalmente, qualche tendenza o qualche stranezza nei campi più disparati, dalla biologia all'economia, dalla fisica alla medicina...

      Pensiamo a quante informazioni dovevano essere certamente annidate nella rete nei giorni che hanno preceduto l'attentato alle Torri Gemelle.
Se fossimo stati in grado di correlare in maniera intelligente le tantissime informazioni disponibili forse avremmo potuto prevenire un atto così barbaro.
Ecco, se io vedo una tendenza tra le più innovative in campo informatico è proprio nella capacità di sapere leggere con intelligenza le crescenti quantità di dati che la rete mette ogni giorno in linea.
      E non è solo una sicurezza militare, politica, sociale, economica, ma perfino biologica. Potremo capire meglio come si evolvono le diverse aree agricole, quali sono i rischi, dove può colpire il maltempo, o anche un'epidemia. Forse non è lontano il giorno in cui tutte queste informazioni ci consentiranno di combattere meglio malattie, non solo infettive ma soprattutto degenerative. Il confronto tra gli innumerevoli dati di ospedali, ricercatori, medici consentirà di leggere quello che oggi ancora ci sfugge.“

        Lo sviluppo di questa tipologia di pensiero, porterà alla nascita di applicazioni, software e sistemi capitanati da algoritmi intelligenti in grado di saper scindere e selezionare le informazioni e fornire l’output più adeguato agli stimoli ricevuti, la macchina assomiglia sempre più spaventosamente al cervello umano. Non solo, ma la macchina deve essere anche sempre più vicina e collegata all’uomo, essa deve essere un prolungamento delle sue reti neuronali, una prolungazione del corpo e della mente. Proprio in questi anni infatti, nascono i primi telefoni cellulari, fieri figli dei telefoni fissi, ma antenati degli Smartphone che nel prossimo capitolo (gli anni 2000) verranno messia punto e perfezionati, ancora una volta, da Steve Jobs, i quali faranno entrare gli umani nell’Era dell’iperconnessione. 

Andrea Tundo

giovedì 7 luglio 2022

La Rivoluzione Informatica (parte quinta): gli anni '80 - di Andrea Tundo

 

    Dopo una lunga pausa, eccoci ritrovati con un nuovo appuntamento della nostra rubrica sulla rivoluzione informatica, in cui andremo a seguire gli importanti sviluppi del computer e di internet negli 80’, cogliendo in particolare quelle dinamiche che hanno influenzato, più di tutte, il modo in cui queste due tecnologie si sono propagate nel mondo nei decenni successivi sino ad oggi.

    È neccesario a questo punto fare un breve rimando a quanto sottolineato nell’articolo precedente, quindi nel decennio attinente agli anni '70: solo allora venne alla luce il microprocessore, che permetterà, come vedremo, la creazione dei primi veri e propri personal computer, ovvero un device di dimensioni piccole e a basso costo, adatto dunque ad una diffusione capillare negli uffici, nelle università e tra la popolazione, in quanto, come già evidenziato, i computer fino agli anni 60’ erano solo di ausilio degli alti apparati burocrati e militari dello Stato, anzi è proprio grazie all’ organismo militare americano “ARPA” che dobbiamo la creazione dei primi collegamenti fra computer e cioè alla nascita del primordiale internet.

    Dunque, cosa è avvenuto negli anni 80’, sono stati questi gli anni della prima grande diffusione dell’informatica personale. Le basi teoriche c’erano tutte. Quello che avvenne fu semplicemente la popolarizzazione a prezzi accessibili dei primi «personal computer» o «home computer» e lo sviluppo di programmi generici che ne rendevano l’uso attraente, anche appunto alla singola persona nel lavoro quotidiano o nello svago. Il tipico computer di quell’epoca aveva quindi normalmente un interprete (cioè un programma che traduce in linguaggio macchina istruzioni formulate in linguaggio simbolico) per un linguaggio di programmazione e veniva completato a seconda delle necessità, con programmi applicativi: videoscrittura, foglio di calcolo, database. In ogni caso era impossibile cominciare ad usare un computer se prima non se ne studiavano i manuali: in parte perché per qualsiasi impiego più specializzato usare un computer significava programmarlo, in parte perché non esisteva alcuno standard e ogni programma già pronto era una storia a sé, in parte ancora perché nozioni oggi imparate spontaneamente nella culla erano novità inaudite («posso tornare indietro e correggere ciò che ho scritto? davvero?»), in parte, per chiudere, perché venivano fatti pochissimi sforzi per rendere «intuitivo» l’uso di un programma.

     Sembrerà strano, ma di fronte alla difficoltà di questo nuovo ingresso c’era chi cantava vittoria: per esempio Neil Postman, che nel suo celebre The Disappearance of Childhood vedeva nell’informatica il ritorno nella storia dell’Umanità di una competenza difficile che (per dirla in due parole) avrebbe ridato senso alle istituzioni educative e restituito alla minore età il suo carattere di periodo di apprendimento e crescita. Insomma l’accesso a tecnologie così intriganti avrebbe costretto tutti ad impegnarsi di più ed uscire fuori dalla trappola di una società tayloristica, sistema che abbiamo già analizzato, qui in Maison Ragosta negli articoli precedenti. Le cose non sono andate così. La fine degli anni ‘80 vede la rapida diffusione delle interfacce grafiche, che in un sol colpo annullano tutti i motivi detti prima: ora ogni cosa assomiglia alla vita reale, si impone lo standard WIMP (window, icon, menu, pointer), diventa un imperativo la discoverability, cioè la possibilità di «scoprire» autonomamente tutte le funzioni esistenti, e tutto viene progettato in modo da rendere superflui i manuali, mentre la programmazione, irriducibile com’è a manipolazioni grafiche, viene sempre più percepita come qualcosa di esoterico. Mentre prima la preoccupazione era soprattutto che un programma fosse veloce da usare una volta imparato, ora si vuole che esso possa essere usato senza bisogno di impararlo: una cosa completamente diversa.   

Interpretazione esagerata? Niente affatto! Ecco che arriva Steve Jobs! Su questo erano esattamente basati i messaggi pubblicitari del primo Macintosh nel 1984, uno straordinario e meritato successo basato sullo slogan: non dovrai imparare come funziona il computer, perché noi abbiamo insegnato al computer come funzioni tu. Gli anni in cui si afferma l’informatica personale sono poi anche quelli in cui si diffonde Internet, cosa che merita un discorso a sé. Basti però dire che avviene qualcosa di paragonabile: un canale dapprima pensato per poche élites diventa improvvisamente ubiquitario e facile.

     Inizia in questo periodo a svilupparsi Internet in senso stretto, inizia proprio ad essere utilizzata la parola Internet, con il significato dello spazio nella rete in cui i computer comunicano tra loro trasferendosi dati. Per intenderci, in questo periodo nascono i protocolli che ancora reggono i controlli di trasmissione dati fra computer, ma nascono anche i domini, nascono i primi software di gestione delle mail. Non siamo ancora nell’era del World Wild Web (il www.), ma siamo molto vicini; nascono reti di computer autonome anche in tutta Europa; in Francia in particolare si sviluppa il Minitel, che diventa la più grande rete di computer fuori dagli USA. Per quanto concerne l’Italia, il nostro primo collegamento ad internet avviene nel 1986 dai centri di ricerca della Normale di Pisa. Insomma, collegarsi a Internet è ancora qualcosa di complesso, ma il dado è tratto e la crescita di questa tecnologia procede ormai in maniera esponenziale, le tante basi teoriche e visioni utopiche messa a punto sin dagli anni 30’ da matematici, fisici e qualche letterato stanno divenendo realtà. Nel 1989, Internet conta ben 100.000 computer connessi in grado di collegarsi alla rete.

     Nel prossimo appuntamento, nell’evoluzione informatica del decennio 90’, si farà un viaggio su due binari da un lato la massificazione di internet e l’introduzione di quelle invenzioni che ne hanno permesso lo sviluppo come lo conosciamo oggi, e dall’altro all’utilizzo dei computer come potenti macchine di calcolo e controllo, al servizio delle funzioni del Potere e della Scienza.

Andrea Tundo