Lavorare nel campo della SEO richiede metodo, competenza e una certa dose di pazienza. Tag ben strutturati, frasi chiave coerenti, link costruiti con criterio, contenuti chiari, leggibili, informativi. Eppure, nonostante tutta questa cura, chi opera sul web si trova sempre più spesso davanti a un dubbio che non se ne va: davvero l’algoritmo è neutrale?
A sentir parlare Google, sembrerebbe di sì. L’algoritmo seleziona i contenuti più pertinenti, autorevoli, affidabili. Niente preferenze, nessuna ideologia, solo matematica. Ma chi osserva ogni giorno come funzionano le ricerche, come si posizionano i contenuti, come certe voci salgono e altre scompaiono, comincia a vedere una strana regolarità. È solo una coincidenza se, cercando una notizia su un tema attuale, i primi risultati arrivano quasi sempre dalle stesse testate, con un’identica linea editoriale? Possibile che siano sempre e solo loro a fare SEO in modo eccellente? Forse sì. Ma forse c’è qualcosa che sfugge. Qualcosa che l’algoritmo non dichiara, ma che si intuisce: una sorta di inclinazione. Un riflesso condizionato verso il racconto dominante.
Anche YouTube, che da sempre si presenta come la piattaforma più democratica del web, ogni tanto mostra un volto diverso. È successo di recente con i video che mostravano le condizioni disperate di due ostaggi israeliani, Rom Braslavsky ed Eyatar David, ridotti allo stremo dalla prigionia. Immagini forti, certo, ma vere. Documenti che molti canali hanno deciso di condividere. Solo che, sul canale dell’associazione Setteottobre, quei video sono stati giudicati “non idonei”. E non è stato rimosso il solo contenuto, ma oscurato l’intero canale, comprese tutte le sue pubblicazioni passate. Nessun avvertimento, nessuna spiegazione concreta. Solo un messaggio asciutto: “Il canale resta rimosso”.
Nel frattempo, gli stessi video sono rimasti online su altri canali, spesso senza alcuna censura. Alcuni addirittura monetizzati. Due pesi, due misure? A chi conosce le regole, la discrepanza suona strana. E soprattutto solleva una domanda scomoda: chi decide davvero cosa può essere mostrato e cosa no? L’algoritmo o chi lo istruisce? E se le regole valgono solo per alcuni, quanto c’è ancora di imparziale in questo sistema?
Anche Instagram ha fatto la sua parte. È successo con un post che conteneva una spiegazione sintetica di cos’è Hamas, senza giudizi, commenti o interpretazioni. Un semplice testo informativo, quasi identico a quello riportato su Wikipedia. Nessuna presa di posizione, solo una definizione, per chi cercava di capire. Eppure, la piattaforma ha vietato la promozione del contenuto tramite sponsorizzate, bollandolo come “sensibile” o “potenzialmente divisivo”. Il risultato? Un’informazione neutra è stata trattata alla stregua di un contenuto problematico, impedendone la diffusione mirata. Anche qui, la domanda è la stessa: è davvero l’algoritmo a scegliere, o c’è una soglia non dichiarata che decide cosa si può far circolare e cosa no?
Ma forse non si tratta più solo di algoritmi. Forse siamo entrati in un’epoca in cui l’informazione stessa è diventata campo di battaglia. Si chiama Information Warfare, guerra dell’informazione. Una strategia sottile, silenziosa, ma potentissima, in cui i contenuti non vengono solo pubblicati o oscurati: vengono selezionati, amplificati, depotenziati, neutralizzati.
Non si spara, ma si controllano le narrazioni. Non si distrugge, ma si decide cosa far vedere e cosa no. In questo schema, la “neutralità” delle piattaforme cede il passo a logiche di potere, geopolitiche o ideologiche, che usano i mezzi digitali per rafforzare o disinnescare certe percezioni. Ed è qui che l’algoritmo, nato per essere neutro, diventa parte del gioco, se non addirittura un’arma. Un’arma che non uccide, ma orienta. Che non fa rumore, ma decide.
La realtà è che l’algoritmo non è un’entità fredda e distante. È costruito da esseri umani, allenato su dati umani, immerso in un mondo che ha le sue preferenze, i suoi filtri, le sue zone d’ombra. E così, giorno dopo giorno, finisce per comportarsi come chi lo ha creato: sceglie, esclude, valuta secondo criteri che sembrano tecnici, ma forse sono culturali. O peggio, politici.
Non si tratta di complottismo, né di urlare alla censura a ogni clic mancato. Ma quando si osservano certi pattern che si ripetono, la domanda sorge spontanea: davvero ciò che viene mostrato in alto è sempre il meglio? E davvero ciò che viene nascosto è sempre inadeguato?
Quell’algoritmo troppo umano Quell’algoritmo troppo umano Quell’algoritmo troppo umano