L’immagine si è inserita perfettamente come esempio in questo articolo che stavo scrivendo.
Per alcuni, infatti, il mondo che vediamo attraverso internet è filtrato secondo criteri che possono diventare vere e proprie gabbie, che rimangono invisibili finché non si verifica una incongruenza come questa. Gli algoritmi di Google e di Facebook tendono sempre più a mostrarci ciò che ritengono ci interessi e ad escludere il resto, ignorando però che la realtà può offrire molte più sfumature: ad esempio, se parli spesso di Berlusconi, non significa che tu sia del PDL. Oppure, citiamo il caso più sottile di Eli Parisier, autore di The Filter Bubble, progressista ma sempre interessato alle idee dei conservatori, che vede scomparire dalla sua bacheca di Facebook tutti i risultati di questi ultimi (qui l’intervento completo al TED).
Il problema, in realtà, sono i nostri limiti mentali e le macchine non fanno che riflettere i limiti dei loro creatori. Due sono i difetti fondamentali degli algoritmi e degli uomini: la tendenza a polarizzare le esperienze (bene/male, giusto/sbagliato, mi piace/non mi piace) e l’attaccamento al guscio, alla lettera del messaggio, ovvero al suo contenuto semantico, come se il significato delle frasi dicesse tutto, quando anche un “ti adoro” può essere l’espressione della più perfida ironia.
Questi difetti non escludono l’arbitrarietà dei risultati, come forse vorrebbe almeno Google nel tentativo di fornirci risultati sempre più pertinenti, ma alimentano la casualità sia delle impressioni di cui ci nutriamo online, sia delle opinioni che ci formiamo sui più vari aspetti della vita. (Facciamoci caso: anche l’accoppiata online/offline è una polarizzazione del tutto arbitraria, come se fossimo qualcos’altro mentre siamo connessi a internet).
Il modo in cui i social network tendono a registrare i nostri gusti si avvicina sempre di più all’estorsione sull’onda del momento. Fino a qualche tempo fa esisteva il pulsante “condividi su Facebook”, con il quale si poteva condividere sul proprio profilo un contenuto aggiungendovi un commento: magari anche per criticare un articolo che tuttavia si riteneva degno di far leggere. Oggi Facebook sta togliendo il supporto a quel pulsante in favore del “mi piace”, il quale registra semplicemente l’apprezzamento, spesso invisibile nella bacheca del suo stesso autore, ma visibile ai suoi ‘amici’ a Facebook stesso, che lo utilizzerà per selezionare i contenuti da mostrarci.
La stessa logica è sottesa ai clic sul pulsante ‘+1′, di cui Google tiene conto nel mostrare i risultati delle ricerche per noi e per i nostri contatti. Ancora più ‘malandrine’ sono poi le applicazioni per Facebook come quella del Guardian, che condivide automaticamente sulla bacheca ciò che l’utente sta semplicemente leggendo (già: i dati personali e la pubblicità inconsapevole dell’utente è la vera moneta con cui pagare l’informazione oggi).
In questo modo, ci avviciniamo sempre di più ai nostri simili (o peggio: a ciò che qualcuno ritiene simile a noi secondo criteri discutibili), escludendo sempre ciò che sta al di fuori delle nostre cerchie: non a caso Massimo Mantellini cita lo studio del premio nobel per l’economia Thomas Shelling, secondo cui la preferenza ad avere vicini di casa simili produce una città completamente segregata. Con la differenza che, mentre Shelling parlava di bianchi e neri, i censori ed editori di internet selezionano ciò che vedremo in base all’interpretazione di un ‘mi piace’, ammesso e non concesso che questo segnale significhi e voglia dire qualcosa.
Ma non ci sono motivazioni solamente etiche dietro a queste obiezioni. Sono anche pratiche, o meglio pragmatiche. La polarizzazione e la focalizzazione sugli aspetti semantici dimostra i suoi limiti anche negli ambiti di intelligence e di reputation management. Non ne è esente nemmeno la Visible Technologies, società di monitoraggio web partecipata dalla CIA, capace di scandagliare milioni di siti e social network ogni giorno, che classifica il sentiment in quattro categorie monodimensionali: positive, negative, mixed e neutral. A giudicare dai dati su diversi brand che fornisce nella demo, l’elevatissimo dato di risultati classificati come neutrali (minimo il 90%) sembra indicare semplicemente l’incapacità di interpretarne il valore.
Purtroppo questi criteri partono da postulati che sono tutt’altro che certi: presuppongono che chi scrive abbia la padronanza sufficiente per esprimere adeguatamente il proprio pensiero, che questo pensiero sia contenuto interamente nella formulazione linguistica, che sia polarizzabile e soprattutto che questo pensiero esista. Lo sa bene Paul Chambers, che due anni fa si ritrovò in carcere dopo aver twittato: “Avete poco più di una settimana per mettere tutto a posto, altrimenti faccio saltare in aria l’areporto!”.
Perché se il web si sta trasformando sempre di più in conversazione, allora non basta affidarsi a software capaci di interpretare il significato di una parola o di una frase in qualsiasi contesto e darne un’interpretazione polarizzata. Occorre interpretarne, oltre al contenuto esplicito, le implicazioni, valutare l’effetto concreto della parola. Ad esempio: un intervento su Facebook con decine di commenti è in sé dimostrazione di influenza? Dipende: quanti di questi commenti sono pertinenti all’intervento e quanti invece sviano su argomenti secondari o non-pertinenti? Qual è, in altre parole, il grado di cooperazione reale ottenuta? Quali sono gli atteggiamenti suscitati?
Per fare questo, però, bisogna compiere il salto dall’analisi semantica e dal linguaggio binario alla ben più umana pragmatica (cioè: il linguaggio come azione), alla quale non esistono ancora sistemi operativi artificiali, né molte intelligenze naturali, pronti ad adeguarsi.
Nessun commento:
Posta un commento