Blog

L’ostilità delle macchine e la nostra

In rete c’è un sacco di gente che litiga, e lo vediamo tutti. Quel che magari si vede meno, o almeno non a occhio nudo, è che il problema non è solo l’eccesso di testosterone verbale delle persone. Conta anche il modo con cui sono progettati gli spazi online e l’interazione al loro interno. Nelle righe qui sotto provo a spiegarmi meglio ma l’argomento è poi tutto qui: oltre all’ostilità umana c’è anche quella moltiplicata – quando non creata proprio – dalle macchine. E bisogna tenerne conto. Ma andiamo per gradi.

Nelle vecchie scuole di giornalismo si spiegava come la scorciatoia per l’attenzione dei lettori passi per la regola delle 3S: basta un titolo su Sesso, Sangue o Soldi e il gioco è fatto. Oggi al posto delle gazzette ci sono le grandi piattaforme digitali, ma il bisogno di catturare l’attenzione dei lettori è rimasto uguale. E così le Facebook del mondo costruiscono struttura e logica dei propri spazi intorno a “coinvolgimento” e “viralità”, senza andare troppo per il sottile riguardo i contenuti veicolati.

Succede con l’architettura delle nostre stanze personali, i profili, dove i contenuti degli amici sono sempre sullo scaffale più in vista, per farci sentire a casa e non annoiarci mai. E succede anche coi meccanismi scelti per far girare le news: i post che hanno più probabilità di essere mostrati in bacheca sono quelli più “virali” a livello di condivisioni like e commenti, indipendentemente dai contenuti e dalle fonti (sull’argomento vedi anche il post di Rodolfo Baggio).

Niente di male in tutto questo, salvo che la regola delle 3S è sempre valida, e così le storie su Sangue e Soldi [con il Sesso appena dietro] si propagano meglio delle altre. Prendi una storia bella rotonda, con una tesi urlata e magari con un “nemico” in bella vista, e avrai più probabilità di diventare “virale” rispetto ai mille e uno post circostanziati lunghi e magari barbosi che trattano lo stesso tema un clic più in là. Quelli bravi lo chiamano “effetto palla di neve”: i post truculenti prendono inerzia in alto, iniziano a rotolare giù per la montagna e poi, coinvolgenti come sono, diventano una valanga e spazzano via il resto. Il problema è proprio qui: fermare le valanghe non è facile mai. E lo è tanto di meno qui perché Facebook ha progettato la discesa molto ripida, e ha scientemente evitato di inserire barriere lungo la pista per non frenare coinvolgimento e viralità.

Collegato c’è poi un secondo problema. Dal momento che nelle stanze digitali ci sono tante persone e tanta attenzione disponibili, perché non costruire degli aiutanti robot che ci aiutino a diffondere le nostre idee in modo più ampio e veloce? Detto così sembra fantascienza, ma alla fine è quello che sempre più spesso accade con i risponditori automatici [chatbot] dei customer care aziendali, o dei giornali. Questi robot si programmano con poca fatica e sono in grado sia di moltiplicare, copiandoli all’infinito, i messaggi ostili pensati dagli umani, sia di confezionare autonomamente messaggi e attacchi, passibili poi di diventare a loro volta virali.

Dove l’effetto palla di neve descritto sopra abbisognava comunque di una spinta umana, insomma, l’azione di bot e ghost può realizzarsi anche in modo automatico. E il futuro potrebbe riservare altre sorprese, ancor più algoritmiche e meno digeribili, con gli sviluppi di campi come intelligenza artificiale, singolarità algoritmica e c.d. machine learning – l’apprendimento automatico da parte delle macchine – fin qui improntati alla risoluzione dei problemi ma non sempre accompagnati da altrettanta attenzione etica.

La risoluzione dei problemi qui sbozzati non è né facile né immediata. Probabilmente non è possibile né desiderabile risolvere problemi nuovi con ricette vecchie- tipo assoldare milioni di editor umani per Facebook, o chiedere alle piattaforme di determinare algoritmicamente cos’è il “vero” e cose è il “giusto”. Altrettanto probabilmente sarà necessario fare ricorso a soluzioni miste – con alcuni “paletti” automatici e alcuni strumenti di verifica umani a valle – come diversi esperti suggeriscono già oggi. Ma anzitutto, visto da qui, è necessario riconoscere che oggi anche l’ostilità algoritmica è un problema rilevante, e occorre affrontarla con pari sforzo e pari attenzione di quella riservata a quella umana.

Archives

ASSOCIAZIONE PAROLE OSTILI, Via Silvio Pellico 8/a - 34122 Trieste, C.F. 90153460325 @2016 - 2018
A cura di spaziouau | Privacy Policy