Come per il regno di Fantasia, che ospita le avventure de La storia infinita di Michael Ende, i confini del web, se esistono, sono molto difficili da raggiungere. Le statistiche ci dicono che la rete ospita oggi quasi 2 miliardi di siti web, e la cifra include tanto il mio sito web personale, che conta 12 pagine, quanto Amazon e Wikipedia, composti da centina di migliaia di pagine in diverse lingue. Ogni giorno su Instagram vengono pubblicati quasi 100 milioni di post, e su YouTube ogni minuto vengono caricate 500 ore di video. L’enormità di queste cifre ci obbliga a sviluppare il nostro senso dell’orientamento digitale – un po’ come un ragazzo di paese che, tutto d’un colpo, si trova tra le vie di una grande città.
Benvenuti nel Far West
La potenza del web, e allo stesso tempo la sua maledizione, consiste nella possibilità praticamente illimitata di pubblicazione di informazioni da parte di chiunque. Ma non è sempre stato così. Nel suo primo ventennio, infatti, la rete assomigliava molto a una “biblioteca digitale”. Cosa caratterizza una biblioteca? Il fatto di raccogliere in maniera ordinata e sistematica una grande quantità di testi, selezionati dai bibliotecari, e che vengono scritti da pochi autori a beneficio di molti lettori.
Questa situazione è però radicalmente mutata nel 2000, con la comparsa dei blog (crasi di web e log, cioè “diari o registri della rete”), cioè di software che permettevano anche a chi non aveva competenze informatiche di pubblicare informazioni su internet. I blog e altri programmi simili vennero prontamente ribattezzati social software (sintagma creato da Tim O’Reilly) perché rendevano il web un luogo sociale, cioè, diremmo oggi, accessibile a tutti e a tutte.
I social network odierni, seguendo la strada aperta da Facebook nel 2004, ne ereditarono il funzionamento e lo espandono continuamente in chiave commerciale: la rete oggi non ospita individui o gruppi che gestiscono il proprio blog, ma grandi aziende che creano una piattaforma per offrire servizi di pubblicazione.
E fu così che, in assenza di norme e consuetudini, il web è diventato un vero e proprio Far West informativo.
Farsi l’occhio
Se il web ospita “di tutto”, è importante allora imparare a distinguere ciò che “vale la pena”, un po’ come si fa sulle bancarelle del mercato o da un antiquario. Anche perché, in linea di massima, online c’è più spazzatura che informazione di qualità. Giusto dare l’idea, i siti associati a PornHub ospitano ogni giorno più di tre volte del traffico dell’intera YouTube, e sappiamo tutti che buona parte dei post pubblicati sui social riguardano temi sì importanti (come i compleanni, gli animali domestici e le ordinazioni al ristorante), ma che potremmo forse chiederci se debbano apparire in un luogo accessibile a miliardi di utenti. E non stiamo ancora considerando i siti che di proposito diffondono informazioni false, incomplete o ingannevoli. Sì, il web ospita numerose perle, ma bisogna saperle cercare e trovare.
Da dove cominciare a farsi l’occhio per trovare ciò “che vale” e non rimanere intrappolati nel “di tutto”, tra spazzatura e tranelli? Un primo semplice passo è distinguere le tipologie di siti web che ce le forniscono. Infatti, se valutare la qualità delle informazioni è un compito complesso, riconoscere la tipologia di sito web è relativamente semplice, e offre una base di valutazione piuttosto solida.
Tipologie di sito web
Distinguere tipologie di sito web significa tenere conto di chi pubblica le informazioni e attraverso quale processo. Le informazioni sull’origine e la natura di un sito web si trovano spesso in fondo alla homepage, nel cosiddetto footer, o nella pagina “about”. Corrispondono al colophon, la pagina di informazioni che l’editore inserisce solitamente tra la copertina e l’indice di un libro, o nella seconda di copertina di una rivista. In alcuni stati, e praticamente in tutta Europa, un sito web deve per legge fornire informazioni su autori e proprietà – il che è piuttosto intuitivo, soprattutto se consideriamo il contrario: quale sito web avrebbe interesse a non dichiarare la propria origine? Già l’assenza di queste informazioni dovrebbe farci rizzare le antenne.
Possiamo dividere i siti web in quattro categorie fondamentali:
Siti di organizzazioni (legalmente, di persone giuridiche), cioè di gruppi di persone con una struttura stabile. Possono essere istituzioni dello stato (come il DECS www.ti.ch/decs), imprese (come MIGROS o Manor), realtà non profit (solitamente associazioni o fondazioni) ed enti di formazione e ricerca (come le università). Di solito un’organizzazione definisce al suo interno dei processi strutturati per la comunicazione, e possiamo quindi contare sul fatto che un determinato documento, prima di essere pubblicato, sarà stato controllato da più persone e sarà allineato con gli obiettivi dell’organizzazione stessa. Le organizzazioni hanno finalità e valori precisi, che solitamente vengono dichiarati (per un’impresa ci sarà sempre a tema anche il profitto; per una fondazione sarà centrale un valore morale, ecc.), così che sarà anche possibile interpretare le informazioni considerando il punto di vista di chi le ha pubblicate.
Siti personali (legalmente, di persone fisiche), cioè di individui. Possono essere legati ad attività professionali (per liberi professionisti, ad es., www.lucaavoledo.it), hobby, o legati a temi o esperienze puntuali (ad es., http://autocrescita.com/). La persona che gestisce un sito web personale ne ha solitamente il controllo assoluto e totale. Questo fa sì che il processo di pubblicazione sia agile e che rispecchi pienamente il suo pensiero, ma l’assenza di controllo rende più facili errori e imprecisioni. Anche per le persone, evidentemente, hanno valori, finalità e punti di vista, ma non è detto che questi siano dichiarati esplicitamente, e questo rende più difficile ricostruirne il punto di vista.
Siti di community, cioè di persone senza organizzazione stabile ma unite da un interesse comune. Si tratta molto spesso di siti tematici (ad es., sul ciclismo www.sager-2rad.ch) che raccolgono, spesso tramite dei forum o dei wiki, le conoscenze ed esperienze di molte persone. Spesso però questo accade in forma destrutturata e con un sistema di controllo e revisione piuttosto lasco, solitamente solo di moderazione (vengono cioè esclusi contenuti inaccettabili secondo le norme definite dalla comunità, ma non vengono operati controlli, ad esempio sull’affidabilità delle informazioni). In una community, ogni membro mantiene le proprie caratteristiche e finalità, e questo può rendere difficile interpretare i singoli messaggi o elementi informativi, dato che più prospettive, magari non dichiarate, possono intrecciarsi. Wikipedia, animata da una grande e vivace comunità, è un caso particolare all’interno di questa categoria.
Siti di informazione, cioè gestiti da organizzazioni che hanno come compito la produzione di informazione, come la radio, la televisione e i giornali. Queste organizzazioni non solo hanno processi strutturati di pubblicazione, ma possono anche contare sull’’elevata professionalità dei propri collaboratori, tra i quali giornalisti ed esperti, e pubblicano quindi informazioni tendenzialmente affidabili. In questo ambito è fondamentale distinguere tra le aziende private (che sono quindi condizionate dalla ricerca di un utile o comunque della sostenibilità economica, e che solitamente hanno un orientamento dichiarato) e di servizio pubblico (che rispondono a un preciso mandato formulato dagli stati e da loro finanziate, e che cercano di essere, in un paese libero, il più possibile equilibrate e super partes).
Chiaramente, le categorie non sono omogenee al loro interno, e la qualità e affidabilità potrà variare, magari anche in relazione ai temi. Tutti sappiamo infatti che esistono testate specializzate nell’informazione economica e altre più orientate al gossip, e che pareri politici espressi in una community dedicata alla cucina non sono per forza affidabili.
Da questo punto di vista i social network non sono equiparabili ai siti web, perché sono piattaforme che ospitano post e pagine di tutte queste categorie e che replicano al loro interno l’eterogeneità informativa della rete.
Considera il quorn
Davvero riconoscere la tipologia di sito web può fare la differenza? Immaginiamo di cercare informazioni sul quorn, un nuovo ingrediente che vorremmo introdurre nella nostra dieta. In rete troviamo informazioni contrastanti: alcuni dicono che è vegano e altri no; alcuni sostengono che sia buono e altri che sia insapore o addirittura disgustoso. Come possiamo capire chi ha ragione?
Potremmo ad esempio decidere di verificare se i preparati a base di quorn contengano elementi animali. Questa informazione sarà “di prima mano” unicamente sul sito dell’azienda che li produce. Se trovassimo liste di ingredienti riportate su un sito personale, potremmo a buon diritto nutrire dei dubbi. Viceversa, se volessimo sapere se il quorn è buono o meno, non conviene affidarsi alle informazioni sul sito di un produttore (non si chiede all’oste se il vino è buono!); potremmo però cercare recensioni su siti personali, o ancora meglio, leggere le discussioni sul sito di una community di gourmand vegani.
Una rapida selezione per tipologia di sito web ci permetterà così di indirizzare l’attenzione in maniera efficace e di scartare documenti inutili. In modo da prepararci al meglio a provare il quorn in prima persona, che è un’esperienza che nessuna pagina web può sostituire.
Finalità e intenzioni
Abbiamo visto sopra che ogni categoria di sito web (di organizzazioni, di individui, di community, di informazione) si contraddistingue (a) per un particolare processo di pubblicazione delle informazioni, che prevede più o meno controllo, e (b) per una definizione più o meno esplicita di valori di riferimento. Questo secondo elemento è molto importante, perché conoscere il punto di vista della fonte è fondamentale per valutare l’affidabilità di un’informazione, e magari anche per “farci la tara”, cioè intepretarla correttamente. Ad esempio, se troviamo un articolo che parla di discriminazione razziale, sarà importante sapere se l’autore è bianco europeo, africano, afroamericano, indiano o altro. Ogni umano ha sempre un proprio punto di vista, e la tensione all’obbiettività richiede impegno etico e capacità professionale.
Oggi però possiamo anche incappare in contenuti prodotti da autori che non hanno, almeno apparentemente, alcun punto di vista. È il caso di testi, audio o video generati da algoritmi di intelligenza artificiale. Finché di tratta di una ricetta, di una previsione meteo o del descrittivo di un apparecchio tecnico, la questione è forse poco rilevante – ma come ci comporteremo quando a tema ci sono temi e fatti controversi, o valutazioni delicate e incerte? Si tratta di uno scenario del tutto inedito ma oggi possibile, e per questo motivo c’è chi si sta battendo per fare in modo che i contenuti prodotti da algoritmi di intelligenza artificiale siano esplicitamente contrassegnati come tali.
Luca Botturi, professore in media in educazione alla SUPSI