Alessandro de Luyk Social

L’ALGORITMO DI FACEBOOK E I SUOI TOP SECRETS

Se fossimo a Broadway, seduti comodamente in uno dei tanti teatri che hanno reso famosa nel mondo la grande mela per i suoi Music-hall, staremmo sicuramente assistendo alle prove generali di un nuovo tipo si show.   Il titolo?  >>Prove di Intelligenza Artificiale (AI)<<

DI COSA PARLIAMO IN BREVE

In qualità di consulente di Social Media Marketing i vari aspetti che investono l’algoritmo di Facebook che presiede alla gestione del News Feed mi è parso degno di una trattazione ampia che in un certo senso si facesse anche portavoce, fra i tesi in lingua italiana, di quella moltitudine di passaggi e di scritti che, oltre oceano, documentano la sua evoluzione.  In questo post molto lungo, ho cercato di raccogliere in una trattazione sistematica le preoccupazioni e le vicissitudini che hanno segnato l’evoluzione dell’ algoritmo negli ultimi due anni. Troverai molte osservazioni tratte da vari articoli presi dal Washington Post, dal New York Times, da Tech Crunch e dall’ ufficio stampa della multinazionale di Menlo Park, tutti a fare da garante di quanto qui analizziamo.  Il tema è trattato a metà strada fra le implicazioni di tipo economico e socioculturale e quelle più vicine al Social Media Marketing.

È proprio così, è iniziato il conto alla rovescia, è sotto gli occhi di tutti, ma nessuno lo vuole ammettere.  Parafrasando il noto modello del Viaggio dell’Eroe , che funge da mantra pensiero per orientare la drammaturgia delle sceneggiature cinematografiche, stiamo attraversando la fase nota come “trials ed errors”, le famose prove e gli errori che formano la capacità di sopravvivenza del protagonista.  A seconda di come l’eroe ne verrà fuori la sua storia sarà eroica oppure drammatica. Eroica se l’eroe vince e torna in patria e viene accolto con lo scambio di doni. Drammatica se l’eroe muore e se ne và in un’altra dimensione.  Per chi non avesse capito l’eroe siamo noi, tutti noi, l’Umanità.  L’AI infatti è un punto di svolta, un momento liminare della nostra evoluzione che segna un passaggio, un gate, dal quale non si torna indietro.

Se a firmare questa sceneggiatura fosse Elon Mask (uno dei fondatori di Pay pal e ora CEO di Tesla) non vi sarebbero dubbi, l’eroe soccombe. E’ nota infatti da tempo la critica massiccia che il giovane visionario porta avanti nei suoi vari interventi pubblici circa l’ipotesi di futuro dominato dalle macchine intelligenti.

AI NELLE NOSTRE VITE

Ma dove si annida l’intelligenza artificiale?  In realtà se ne parla molto e ci sono molti articoli che elencano i vari touchoint con le nostre vite ma credo che pochi siano così completo come questo articolo di Tom Vander Ark con i 101 esempi che ci fornisce.  Alla domanda dunque la risposta è semplice: l’ AI è ovunque.

Noi non siamo qui per schierarci pro o contro una tecnologia, vogliamo analizzare i fatti.  Mentre tutti parlano di Machine Learning e di Algoritmi, ora vogliamo fare chiarezza: quando oggi si parla di algoritmi che fanno delle inferenze sul comportamento umano, magari basate sulle nostre esperienze personali, di fatto stiamo parlando di macchine che adoperano una forma di intelligenza artificiale.  Come la faremo evolvere nel tempo così anche le nostre vite cambieranno.  Anzi senza accorgercene sono già cambiate perché il guado non è innanzi a noi ma lo stiamo proprio attraversando in questi anni.

Se cambiamo le nostre conoscenze, se cambiano le informazioni in nostro possesso, cambiano anche le nostre vite. Oggi potremmo pensare di sapere dove mandiamo a studiare i nostri figli o da che medico vogliamo farci curare o quale località di vacanza stiamo per scegliere, domani non sarà più così. Gli algoritmi che intercetteremo sul nostro cammino (quello delle news de feed di Facebook, quelli di Google, quello di Amazon, solo per fare degli esempi che riguardano tutti.) avranno condizionato le nostre decisioni. Poco male dirà qualcuno. Un tempo decidevo con scarsa ed incompleta informazione, un tempo eravamo vittime di bias cognitivi di ogni tipo, adesso invece possiamo prendere delle decisioni con un intero schieramento di tecnologia al nostro fianco. Se osservi qui non stiamo parlando di libero arbitrio, qui stiamo ancora suggerendo che a decidere, alla fine è l’essere umano. L’atto di scelta lo compie lui.  l tempo però fa giare le lancette dell’innovazione ad una velocità paurosa, e anche questa certezza ormai si sta sgretolando sotto i nostri piedi. Le macchine pensanti stanno per prendere decisioni al posto nostro e per le nostre vite.  Il problema dunque oltre che esegetico, oltre che morale (posti di lavoro in fumo, ecc.) oltre che culturale (in che direzione andranno le nostre conoscenze, ecc.) ha sicuramente delle implicazioni teleologiche, insomma diventa il nostro dilemma millenaristico

INTELLIGENZA ARTIFICIALE E ALGORITMI

Non ci occuperemo di AI in questo post, ma di algoritmi e AI. Anche a voler per un attimo vestire i panni degli entusiasti della tecnologia e degli apologeti dell’Intelligenza Artificiale, quando si parla di algoritmi, anche l’ipotesi idilliaca della valle dell’Eden che loro ci prospettano svanisce di colpo. Infatti gli algoritmi non sono al nostro servizio ma al servizio del provider che decide “come” sono al nostro servizio. E la stessa cosa del magistrato che decide in tribunale per l’interesse di una madre ed un padre in conflitto fra di loro come assegnare i figli e gli alimenti.  A decidere è lui non noi!

Oltretutto il magistrato è un essere umano qui, invece la nostra controparte sono macchine, macchine non ancora senzienti, ma sempre macchine. Fosse solo questo il problema potremmo dormire sonni tranquilli invece c’è dell’altro.  La grande preoccupazione è che la macchina possa andare per la sua strada e fare di testa propria.  Questo caso molto discusso è quello delle macchine senzienti per il quale si allarma il professor Hawking e, con lui, moltissimi autori della cinematografia SciFi.

Però no, non è questo il dilemma urgente, che ci sovrasta ora. Se vogliamo restare con i piedi per terra dobbiamo piuttosto temere la manipolazione da un lato e l’ordine decisionale di queste macchine dall’altro.

La manipolazione è già in atto. Amazon propone prodotti che sono in Prime offrendoli prima dei prodotti analoghi e con ottimi prezzi spingendo l’acceleratore delle vendite su quello che gli permette di avere un extra ricavo perché si incarica lui della consegna.  Quanto influisce il suo algoritmo sul tuo agire di acquisto? Te lo sei mai chiesto?

Google assegna posizionamenti SEO nelle SERP (Search engine results page) di pagine che decide lui con il suo algoritmo secretato come disporre in esatta successione.  Nessuno potrà mai dire nulla, nessuno potrà obiettare che siano macchine programmate per fare i nostri interessi perché sono software proprietari e dunque coperti da diritto d’autore e segretezza industriale. Notate che non ho citato Facebook perché di questo parleremo più nel dettaglio nel resto del post.

Promuovi è un’agenzia specializzata in SEO, SEM e SMM . Ci occupiamo di dare sostegno alle aziende che intraprendono progetti di e-commerce per vendere con successo sul mercato nazionale e su quelli internazionali. Vendere e fare fatturato; questo il fine. Operiamo sugli Owned Media aziendali con Prestashop, Magento e WordPress o sulle piattaforme multicanale come Ebay, Amazon, Eprice, ecc.
Contatta il nostro staff se sei interessato ad approfondire.

ORDINE DECISIONALE DEGLI ALGORITMI

Il fulcro della questione è proprio qui.  Anche senza prendersi il disturbo di fare voli pindarici alla ricerca delle precognizioni per intuire in che direzione andrà l’umanità e come si svilupperà il suo rapporto con l’ AI, siamo oggi pienamente investiti dal problema in termini molto più prosaici. Gli algoritmi sono sistemi che riflettono la volontà dei loro programmatori. Noi li usiamo per raccogliere informazioni e prendere decisioni su temi che non hanno una “struttura reale” con cui confrontarsi e che rendono quindi impossibile dare una misura dell’approssimazione dei loro output. Che siano neutrali e servizievoli, insomma che operino per pura sollecitudine al fine di farci vivere meglio è falso.  Primo perché ciascuno di noi è diverso e secondo perché manca un modello tratto dalla vita reale a cui conformarsi.

Poiché siamo tutti diversi (punto uno) l’algoritmo è pensato per studiare i nostri comportamenti ma, come esseri umani, è improbabile che ci possa leggere fino in fondo perciò anche se volesse non potrebbe fare “solo” i nostri interessi.

Sul secondo punto (mancanza del “modello reale” di riferimento), molto più sottile, viene giocata tutta la partita dal punto di vista etico. Non esiste un modello creato dalla macchina che viene confrontato poi con il mondo reale per valutare se la macchina ha fatto bene il suo lavoro.

Oggi per costruire un ponte si elabora un modellino in scala e poi lo si testa in laboratorio. Se durante il test il ponte crolla allora il modello matematico su sui era stato realizzato viene corretto.  Ora, per fare un secondo esempio, e senza andare a disturbare gli ingegneri possiamo pensare ad una materia molto più vicina alla vita di tutti i giorni. Se costruiamo un peso di un chilogrammo per fare misure su una bilancia dobbiamo confrontarci con il regolamento del Sistema Internazionale di Unità di Misura e il peso, salvo minimi errori, si deve poter misurare rispetto all’originale : così si stabilisce la bontà del “peso copia”.

Del tutto diverso è lo scenario se pensiamo agli algoritmi. Cosa succede se Google mi fornisce una successione di dieci links nella prima pagina delle SERP e domani, nell’ipotesi che nulla del modello si sia modificato (leggi che non ci sono nuovi documenti da indicizzare su quella materia per la quale stiamo facendo una query) la cambia? Come si potrà mai verificare se la numerazione che lui ha attribuito da 1 a 10 è, o meno, un ottimo? Quale che sia il fine ultimo del suo lavoro chi o cosa potranno mai dire se ha svolto correttamente il compito per il quale è stato programmato? La risposta è semplice: nessuno.

La Mission del Gigante di Mountain View è:

>>  Google’s mission is to organize the world’s information and make it universally accessible and useful.<<

Il fatto è che gli algoritmi vengono utilizzati per dare risposte su questioni che non hanno una verità riconosciuta: non hanno una “riposta esatta”. Valutandolo secondo questa prospettiva l’algoritmo appare autoreferenziale; ma non nel senso strettamente computazionale per cui intendiamo referenziale per il fatto di utilizzare un procedimento ricorsivo questa sarebbe una scelta che dipende dal tipo di algoritmo e in un’ultima analisi dal modello di calcolo o di apprendimento che l’uomo ha pensato sia ottimale per svolgere il suo compito.  Algoritmi di questo tipo sono piuttosto comuni nell’ambiente scientifico per risolvere calcoli e formule. Facciamo piuttosto un passo avanti. Accettiamo un osservazione che lo inquadra con un approccio meno scientifico, immaginiamo l’algoritmo di Google che preside alla formazione delle SERP, cosa accade a seguito di un aggiornamento quando cambia i suoi output.

Gli addetti ai lavori sanno che Google aggiorna il suo algoritmo spesso, e in letteratura è ben nota la conseguenza di questi aggiornamenti perché ricombinano l’ordinamento delle SERP. Osserva anche che tale ordinamento è sempre di tipo cardinale e mai ordinale, ciò è un ulteriore prova che la sua formula è referente di un segreto industriale, perché non essendo calcolabile la distanza da un ottimo fra due output – intendo qui il differenziale del punteggio che la macchina ha attribuito a due diverse posizioni nelle SERP fra loro contigue- è impossibile condurre delle valutazioni sperimentali e di tipo empirico per risalire ad una formula esatta dell’algoritmo.  L’aggiornamento cambiando la successione delle SERP, ovvero l’output, ed in assenza di una “modello di verità” con cui confrontarsi, porrà il sistema nelle condizione di assumere la sua migliore stima solo nella misura di una sua precedente stima. Per me questo è autoreferenziale.

L’ALGORITMO DI FACEBOOK CON IL POTERE DELL’INTELLIGENZA ARTIFICIALE

Il Machine Learning, una fra le tante applicazioni dell’Intelligenza Artificiale significa apprendimento automatico. Semplificando il concetto la macchina impara da sola, si auto corregge.  Dunque un algoritmo come quello che presiede alla gestione del News Feed in Facebook apprende da solo il nostro agire il consumo delle notizie. Impara cioè a conoscere le nostre abitudini e si auto corregge osservando come interagiamo con esse.  Un tempo questa algoritmo si chiamava Edge Rank, oggi però opera come un insieme di algoritmi minori e con tecniche di Machine Learning e in letteratura non ha più questo nome, è diventato anonimo, forse anche per una scelta strategica. E’ risaputo che il nominare, come abbiamo imparato dagli studi di antropologia sugli uomini primitivi, implica già nell’atto in sé di riconoscere un potere alla cosa.  La cosa anonima invece priva del nome resta non identificata, come fosse anodina

Il news feed a cui accedi dal tuo account in FB è l’orgoglio della multinazionale di Menlo Park, un sistema che va’ a scrutinare tutto ciò che è stato postato nell’ultima settimana da ciascuno dei tuoi amici, da coloro che segui, dai gruppi a cui sei iscritto, e i contenuti di tutte le pagine per cui hai espresso un Like. La macchina le elabora e poi te le offre stabilendo un ordinamento (ranking) che corrisponde, secondo l’idea che si è fatta di te, al miglior modo di ottimizzare il tuo coinvolgimento.

Il tipo di conoscenza a cui attinge la macchina non è solo collegata alle nostre azioni, viene monitorato non soltanto ciò che corrisponde ad un’azione, tipicamente il click, la condivisione, la scrittura, ecc., ma anche i tempi di lettura , la durata di visione di un video, i punti della pagina dove punti il mouse, il tempo sulla pagina o quello sui singoli post, e via dicendo.  Più avanti in questo post troverai una disamina più accurata di questi fattori. Il titano dei database che raccoglie dati sulle nostre vite come miele in celle esagonali, si distingue per fare molto di più. Ecco cosa segnala il giornale on line indipendente ProPUblica :

>> Facebook’s page explaining “what influences the ads you see” says the company gets the information about its users “from a few different sources.” What the page doesn’t say is that those sources include detailed dossiers obtained from commercial data brokers about users’ offline lives. Nor does Facebook show users any of the often remarkably detailed information it gets from those brokers.<<

L’articolo specifica che le informazioni che ha acquisito circa gli utenti della piattaforma arrivano persino ad includere il reddito delle persone, i tipi di ristoranti che frequentano e quante carte di credito hanno nel portafoglio (<<  their income, the types of restaurants they frequent and even how many credit cards are in their wallets.>>). Informazioni che raccoglie per ottimizzare gli annunci che ci mostra durante l’utilizzo della piattaforma, questa, almeno, sarebbe la giustificazione. Insomma FB ci vuole bene.  Sa tutto delle nostre vite ma lo fa a fin di bene.

A questo punto ritorniamo al News Feed per prelevare l’incipit di questa notizia tratta da canale ufficiale delle sala stampa di FB, ecco cosa scrivono:

>> The goal of News Feed is to show you the content that matters to you.<<

UN ALGORITMO NEUTRALE

Il processo evolutivo sarebbe impossibile da cristallizzare in un post perché avviene in modalità on going, sempre e comunque in trasformazione. Di recente, per esempio, la multinazionale ha deciso di adoperare una terapia d’urto: non si tratta qui di ritocchi di tipo cosmetico ma veri e propri trapianti.  Ecco cosa viene comunicato attarverso la sala stampa della piattaforma in data 31 gennaio 2107:

>> When ranking News Feed we look at many signals personal to you, such as how close you are to the person or Page posting, as well as more universal signals like the overall engagement (likes, comments, shares) that a post has. [..] With this update, we’re adding new universal signals to determine whether a post might be authentic. To do this, we categorized Pages to identify whether or not they were posting spam or trying to game feed by doing things like asking for likes, comments or shares. We then used posts from these Pages to train a model that continuously identifies whether posts from other Pages are likely to be authentic. For example, if Page posts are often being hidden by people reading them, that’s a signal that it might not be authentic.

If a post is likely to be authentic based on the new signals we look at, it might show up higher in your feed.<<

Come si evince leggendo il tono e i contenuti sono scritti per sembrare molto rassicuranti. A ciò dobbiamo aggiungere che il fine ultimo per cui è programmato l’algoritmo (del News feed) dovrebbe essere quello di mostraci le cose che ci interessano, infatti sempre lo stesso articolo recita:

>> Our goal with News Feed is to show people the stories that are most relevant to them.>>

Lapalissiano: l’intenzionalità del messaggio che con tanta solerzia FB, le sue agenzie stampa, i suoi comunicati ufficiali, le dichiarazioni degli stakeholders, e lo stesso Zukerberg nei suoi post e nei suoi contatti con i media rivelano è di voler fare tutto per il nostro interesse.  Si viene così a dare per scontato che l’algoritmo sia neutrale. Questo è il punto centrale. Scaricare sull’algoritmo tutta la responsabilità di scegliere per noi, e farlo apparire neutrale è il miglior alibi che si sono date tutte  le piattaforme di cui stiamo parlando – non solo FB – per mascherare i propri immensi interessi economici e forse persino politici.

Uno degli uffici di Facebook a Menlo Park 

È consigliabile a questo punto valutare l’intero quadro facendo un’ipotesi controfattuale. Cosa accadrebbe se invece di usare degli algoritmi si decidesse di delegare all’uomo la scelta?  Qui si muovono due ordini di conseguenze:

  • E molto noto negli studi sul Machine Learning il fatto che l’accuracy (indice di accuratezza) dell’uomo raramente raggiunge il valore dell’80%. Semplificando molto una macchina di machine learning che venisse chiamata a valutare dei contenuti giudicabili in tre classi come favorevoli, sfavorevoli o neutri, raggiungerebbe un accuratezza circa dell’ 80% non dissimile a quella che raggiungerebbe un equipe di esseri umani a cui venissero sottoposte le stesse informazioni. Devi sapere che anche un’equipe di studiosi non si trova facilmente d’accordo su un contenuto. Come giudicare per esempio la frase : >> in quanto a meccanica la Ferrari è tremenda! << ? Se, il contesto in cui la frase si colloca, non è chiarificatore potrebbe essere un giudizio positivo, allora tremenda perché “non ha rivali” ma potrebbe anche essere negativo “tremenda” perché richiede molta manutenzione.
  • Nello scenario in cui l’algoritmo che presiede alla gestione del feed delle news venisse sostituito da una redazione composta da individui immediatamente FB diventerebbe, né più né meno, una piattaforma di News come quelle tradizionali. Ovvero con inclinazioni politiche, sociali, culturali, di costume, di religione, ecc. influenzate dai suoi membri e dai gruppi di potere che si stabiliscono al suo interno e che fanno alleanze e trattative. Né più né meno come accade in tutti i media e in tutti i gruppi editoriali che hanno delle redazioni.

DOBBIAMO “GIOCOFORZA” ADOTTARE UN ALGORTIMO?

Sono questi due ordini di osservazioni che aprono al dilemma Corneliano sui cui marciano le piattaforme quando sostengono che l’alternativa da loro proposta, quella automatizzata dall’algoritmo è una riposta alle vecchie tare del mondo analogico che per secoli ha dovuto giocoforza usare le redazioni.

>> Nel vocabolo italiano giocoforza  che non mi risulta esistere in altre lingue caratterizza molto bene il modo di essere postmoderno perche` unisce all elemento ludico (gioco) il riferimento a una costrizione anzi a una violenza esterna che si impone come unica condizione di effettualita` Quando dico che è giocoforza comportarsi in un certo modo, prendere una certa decisione, compiere una certa cosa, non intendo che e` assolutamente necessario fare così` nè che non sono libero di fare altrimenti: intendo che se voglio rimanere in gioco non mi resta altra scelta. >>

Tratto da “Disgusti. Le nuove tendenze estetiche” di Mario Perniola, editore: Costa & Nolan, 1999,  (pagina 127)

Giocoforza significa scegliere una cosa pur di giocare la partita. Giocoforza significa “se vuoi questo allora devi prendere anche quello”. Nell’era analogica il giocoforza era nella necessità di avere un controllo umano sui contenuti dei libri, delle riviste, dei quotidiani – questo fino al Novecento – e successivamente, con l’introduzione della radio e della televisione, di estenderlo anche su questi medium. Non c’era altro modo. Ma il Web perché mai giocoforza dovrebbe avere degli algoritmi per scegliere come gestire le News? Cosa impedisce di operare con un presidio umano? Nulla.

Lo sappiamo che indicizzare e categorizzare tutti i contenuti on line richiede l’uso di strumenti automatizzati, ma nulla impedirebbe de facto, di armare il News feed di FB di una redazione e ridurre ma qualificare al meglio lo stream delle notizie (almeno di quelle che hanno una provenienza certa tralasciando il controllo su quelle posate dagli amici) per garantirne la provenienza, l’attendibilità e le fonti.  La curation da parte di una redazione in effetti non è giocoforza ostacolata è solo alla mercé della buona volontà. E in effetti delle redazioni ci sono ma….

LA VICENDA DELLA REDAZIONE DELLE TRENDY NEWS IN FACEBOOK

Quando l’algoritmo viene lasciato a sé stesso, quando si decide di non farlo più presidiare da un controllo esercitato dall’ intelligenza umana questo può “impazzire”. Impazzire, titola proprio così e senza mezzi termini il The Guardian in un articolo apparso a fine agosto 2016 relativamente allo scandalo che ha coinvolto Facebook in merito la gestione della redazione che era deputata a operare nella sezione dedicata alle Notizie di Tendenza (Trendy News Module) del News Feed. La redazione, il cui compito era di esercitare la curation relativamente alle notizie più popolari, controllava e verificava i contenuti che l’algoritmo immetteva nello stream, ma, come un fulmine a ciel sereno, è stata licenziata.  Subito dopo, la macchina ha cominciato a fare degli errori clamorosi – noto è, ad esempio quello di “Fox News host Megyn Kelly” (vedi immagine)

Il comunicato stampa di Facebook in data 26 Agosto 2016 riportava il seguente testo con cui giustificava la rimozione delle redazione per dare maggior spazio all’algoritmo:

>> Our goal is to enable Trending for as many people as possible, which would be hard to do if we relied solely on summarizing topics by hand. A more algorithmically driven process allows us to scale Trending to cover more topics and make it available to more people globally over time. This is something we always hoped to do but we are making these changes sooner given the feedback we got from the Facebook community earlier this year.<<

I casi da menzionare che attestano errori ed episodi di indesiderata viralità delle news scappate al meccanismo algoritmico sono molti altri. Tutti ci spingono a riflettere circa la sicurezza e la presunta obiettività ed autonomia di giudizio di queste macchine perché, oltre tutto, non sono casi isolati. Non è questa la sede per elencarli e ci limitiamo alla notizia della Fox su Megyn Kelly per aggiungere che non era solo un fake, ma una news tricky perché l’articolo poi linkava ad un Video in cui si vedeva un uomo che si masturbava con un hot dog.

Non ha senso riportare altri episodi lascio al lettore interessato di seguire i links presenti in questi paragrafi dove potrà eventualmente approfondire.  Ora, invece, vogliamo sottolineare che l’algoritmo di Facebook prende delle decisioni, proprio come farebbe la redazione di una testata giornalistica. Perciò mi sembra che non si possa, di fronte a tutto questo, esimersi dal porsi la seguente domanda:

se gli algoritmi hanno autorità allora si pone il dilemma chi controlla i controllori?

Questa grosso modo è anche il timore espresso da Luke Dormehl nel suo articolo sul TheGardian dal titolo: “AI’s creepy control must be open to inspection

E non devono neppure sembrare delle preoccupazioni da prendere sotto gamba dal momento che si aprono delle frontiere sempre più accelerate e dagli esiti imperscrutabili in un’industry che corre ad una velocità inattesa. Lo stesso articolo infatti recita:

>>Recently, researchers at Massachusetts Institute of Technology’s computer science and artificial intelligence laboratory published preliminary work on deep learning neural networks that can not only offer predictions and classifications, but also rationalise their decisions.<<

L’articolo quindi conclude:

>> One of the goals in 2017 should be to make its workings more transparent. With plenty riding on it, this could be the year when, to coin a phrase, we begin to take back control. <<

L’esortazione a riprendere il controllo è la chiosa dell’autrice. Il monito è buona purtroppo è poco utile perché il giornalista non si sbilancia a suggerire una soluzione.

COME FUNZIONA L’ALGORITMO DELLE NEWS DI FACEBOOK

Inizio questo paragrafo con una cattiva notizia. Ciò che segue è una semplificazione delle funzioni dell’algoritmo e rappresenta una fotografia temporale, un fotogramma che congela nel tempo un’entità, l’algoritmo, che invece è in continua evoluzione. Oltre all informazioni incomplete che abbiamo a causa del segreto industriale che lo protegge dai nostri “occhi indiscreti” a rendere la spiegazione che segue ancora più incompleta c’è il fatto che la ricetta di ogni algoritmo cambia spesso. Tutta l’industria che si regge sull’ AI, crea un moto continuo, è in un work in progress permanente. Perciò posso solo proporre una fotografia, un hic et nunc che vale oggi, e tuttavia è pur sempre utile per comprendere quali sono i driver principali con cui la piattaforma decide di allocare le notizie più importanti (le prime decine) nello stream.

Il criterio come abbiamo già più volte ribadito è quello di offrire ad ogni utente dei contenuti che ne massimizzino il suo coinvolgimento. 

Quanto segue si basa su alcuni articoli apparsi su questo tema su Tech Crunch e sulla nostra esperienza personale come esperti di Social Media  che usano la creatura di Zuckerberg da anni per creare contenuti per conto dei nostri clienti.  Se sei interessato a ottimizzare la tua presenza sui social contattaci.

Ecco allora grosso modo cosa andrà a rilevare la piattaforma relativamente al comportamento di ogni utente

CHI POSTA

Il tuo legame di interesse con la fonte del post è determinante. Più hai interagito con uno o più post in passato da quell’ autore più FB si aspetta che lo rifarai. Come si misura l’interazione? Dai tuoi like, commenti, click, scroll per leggere tutto il post, tempo che passi sul post, visite alla pagina del profilo dell’autore, i tagging sui contenuti, e altri fattori tra cui il tempo trascorso dall’ultima volta che hai letto i contenuti che lui ha postato. Ciò spiega, ad esempio, perché non vedi post di vecchi amici con cui non hai interagito da molto tempo.

COME GLI ALTRI INTERAGISCONO CON IL POST

Conta molto come il post si fa vettore di interesse di altri membri della community, insomma quanto ha coinvolto altre persone. Ci sono post che appena vengono passati nello stream attraggono un gran numero d’interazioni: questi vengono favoriti, la loro reach è maggiore ed è verosimile che arrivino anche al tuo stream per lo stesso motivo.

TIPO DI POST

Facebook sa che tipo di contenuto in passato ha attratto il tuo interesse. Video, foto, links, eventi, cambi di stato, cambio di lavoro, anniversari, contenuti da altre app., ecc., le persone tendono ad avere dei gusti e FB ne tiene conto. .

IL FATTORE TEMPO

I post hanno una curva di visibilità. In linea di massima più è recente il post e più è facile che ti venga mostrato. Poiché FB ha la cronologia dei tuoi collegamenti al News Feed se sono più saltuari è facile che metta nello stream anche post meno recenti. Più spesso accedi e più recenti saranno i post che vedi nello stream. Se non accedi per alcuni giorni è facile che troverai un vecchio post se è importante. Un amico che ha avuto un figlio? Lo vedi anche se sono passati alcuni giorni

La combinazione di tutte queste, ed altre metriche dà, con una buona approssimazione, l’idea di cosa ti verrà mostrato con un certo ranking, con una priorità nel tuo stream.  Sappi però che poi ci sono altri fattori come ad esempio il comportamento congiunto di un tuo gruppo di amici, se quelli sodalizzano su un contenuto in particolar,e è facile che anche a te verrà sottoposto.  Lo stesso dicasi per gli scopi commerciali o di lancio di nuovi servizi della piattaforma come per esempio il live stream.  Se sei un soggetto che interagisce con i video, il live stream o i video nativi (video caricati direttamene sulla piattaforma) ti verranno proposti con una certa solerzia.

Come consulente aziendale in questi anni molto spesso su LinkedIn al pari di Facebook abbiamo osservato da vicino questi comportamenti automatizzati per migliorare le nostre campagne di Social Media Marketing, ed infatti alcune delle tecniche di ottimizzazione dei Post (tecniche note come Social Media Optimization) tengono conto proprio di questi fattori. Se ti interessa operare con una strategia congiunta sui Social e ottimizzando la loro resa anche in termini di ROI contattaci.

Facebook chief executive Mark Zuckerberg. Photograph: Eric Risberg/AP

I PANEL E IL MACHINE LEARNING PER L’APPRENDIMENTO DELL’ ALGORITMO DI FACEBOOK

Arrivati a questo punto molte nozioni sull’algoritmo sono state date.  Ora è necessario ricordare quanto detto all’inizio del post: Facebook non usa, nella sezione del news feed un unico algoritmo ma numerosi e preposti a diverse funzioni. Circa la gestione delle news ce ne sono di due tipi che cooperano fra loro:

  1. Quelli che effettuano il ranking, ovvero attraverso una classifica a punteggio stabiliscono in che ordine di successione mostrare nello stream le varie news.
  2. Quelli per comprendere il livello di gradimento che gli utenti hanno verso un certo contenuto, quindi cercando di comprendere l’interesse e il coinvolgimento che hanno generato

In un interessante serie di articoli firmata da Will Oremus per la rivista on line Slate l’autore racconta di una sua visita a Menlo Park dove ha intervistato alcuni membri del team che preside alla gestione tecnica del News Feed. Nel team era presente il direttore degli ingegneri Tom Allison. Nella lunga trattazione di Oremus altri personaggi di quella squadra verranno citati e qui cercherò di estrapolare alcuni passaggi chiave dei suoi articoli.

Il direttore degli ingegneri Tom Alison, il direttore di innovazione di prodotto  Adam Mosseri, and Lars Backstrom all’interno della caffetteria Saint Frank all’edificio 20 di  Facebook a Menlo Park

Oremus sviscera ed argomenta con precisione alcuni temi ma non si pone neppure l’intento di andare a spiegare, del resto era ovvio, quali sono i parametri dell’algoritmo o la sua formula. Sono invece piuttosto ben delineate le osservazioni circa il lavoro del team nelle sue interazioni con dei “gruppi di controllo”, dei panel di soggetti che FB ha, in tempi piuttosto recenti, iniziato a monitorare proprio come accade per quelli impiegati per le analisi di audience televisiva effettuati da parte di Nielsen,

Come dicevo una famiglia di algoritmi è quella che presiede all’ordinamento dei post attribuendo ad ognuno un punteggio di rilevanza.  In questo ambito operativo tale sistema non si discosta poi molto da quello di Google che assegna, ad una certa parola chiave, una successione di risultati contenuti nella pagina delle SERP ordinata per rilevanza.  Qui daremo spazio invece al secondo aspetto algoritmico, molto più connesso al Machine Learning e alle sue problematiche di apprendimento del comportamento umano con cui concluderemo anche questo post.

Nel precedente paragrafo abbiamo elencato le metriche che FB prende in considerazione quando deve valutare il livello di engagement con un contenuto. I like, i commenti, ecc. sono tutte varabili proxy di quello che gli utenti vogliono.  Il team di FB però è andato oltre si è chiesto cosa accadrebbe per esempio se alcun utenti usassero il like anche su post che non gradiscono? O, caso più vicino a tutti, come si può rilevare la soddisfazione di un utente nel caso in cui, dopo aver cliccato su post o dopo aver fatto l’espansione o dopo aver letto la risorsa collegata tramite link fosse insoddisfatto del suo del contenuto? A chi non è mai capitato!

Ci sono poi i casi in cui un post interessante può, per il suo contenuto, ostacolare l’utente a esprimere un like. Pensiamo ad esempio ad un post con contenuti tragici….

Questa è solo “la punta dell’iceberg” di una famiglia di problemi qui non si possono semplicemente risolvere per inferenza, con una macchina che impara dal comportamento passato. La macchina và addestrata a riconoscere questi che sono dei falsi positivi di engagement altrimenti farà circolare post cliccati anche se poi non sono affatto piaciuti.  Questo il punto che assume persino valenze di tipo epistemologico e che si riassume in questa domanda: come migliorare l’algoritmo in questi scenari?

Secondo uno degli ingegneri della task force di Facebook Chris Cox, “il modo ottimale di risolvere questo problema sarebbe quello di chiedere a ogni utente quale post ha gradito e quale no”. Ciò ha portato a formare un primo panel con un gruppo di mille abitanti quasi tutti della cittadina di Knoxville (Tennesse).  In tempi brevi (nel 2014) venne estesa l’iniziativa e venne formato un “feed quality pannel” con un’audience rappresentativa del pubblico americano, come testimonia a Oremus Adam Mosseri direttore di innovazione di prodotto del news feed.  Successivamente, e siamo ormai al 2015, il pannello di studio è stato esportato anche in altre nazioni ma l’articolo nelle interviste non fornisce ulteriori informazioni.

Dagli studi di interazione con il panel gli ingegneri hanno capito per esempio che il tempo trascorso su un post è una delle variabili proxy da includere nella formula di engagement ma attenzione la velocità di connessione non và trascurata quando si adotta questa metrica.  L’algoritmo ora ne tine conto. Una delle sorprese che ha rivelato questo sistema di analisi è stata la scoperta che una quota di utenti (intorno al 5%) messa di fronte ad un post che gradiva lo nascondeva e lo faceva quasi tutte le volte. Un comportamento di tipo seriale che andava in direzione del tutto opposta alle aspettative del team e ai sistemi di attribuzione del valore dell’engagement adoperati fino a quel momento. Il fatto è che per questo tipo di utenti nascondere un post equivaleva ad un loro modo personale di taggarlo come “già letto” così spiega Sami Tas uno degli ingegneri del software impiegati nel gruppo di lavoro.  Invece nella logica dell’algoritmo nascondere un post è un segnale molto forte per dire che non è gradito.  Dopo questa scoperta l’algoritmo è stato modificato per tenere conto anche di questi comportamenti di tipo “eccentrico”.

Nella mia esperienza di consulente di Social Media Marketing, le informazioni sui parametri dell’algoritmo e sui sistemi di feed back che la piattaforma adopera per mettere alla prova le proprie previsioni siano corrette sono parte indispensabile del bagaglio di conoscenze che dobbiamo avere se vogliamo ottimizzare una campagna. Infatti ora, sulla base delle osservazioni appena condotte, sappiamo che ci sono molti tipi di contenuti che, se usati a fini di comunicazione commerciale, possono prendersi in carico il rischio di non avere un buon punteggio secondo la piattaforma e dunque non ricevere un buon lancio organico.  Ad usare materiali che urtano le sensibilità, diciamo “forti”, oppure provocatori o in qualche modo schierati o appartenenti ad aree che sollecitano il giudizio sociale (armi, sesso, chiesa, religione, politica, libertà civili, casi al centro di dibattito dell’opinione pubblica, ambiente, razza, ecc.) si rischia che si trasformino in un volano e siano controproducenti. Non solo per l’ipotesi probabile, ora che sappiamo come funziona l’algoritmo, che il pubblico possa non attribuire loro segnali sociali positivi (share, like, ecc.) ma perché potrebbero persino trasformarsi di segno opposto e diventare virali per un eccesso di partecipazione negativa.  Un passa parola denigratorio che viene alimentato dalla stizza che il post ha indotto. Ciò che intendo dire è che i brand su Facebook devono fare molta attenzione prima di farsi promotori di una campagna di contenuti sullo stile di quelle che hanno reso celebre, tanto per fare un esempio, Oliviero Toscani. Professionisti che sanno scioccare con la sua abilità e senza disgregare la credibilità e l’appeal di una marca ce ne sono in giro veramente pochi.

Tornando al team di lavoro sul News feed di FB, Will Oremus spiega anche come le modifiche all’algoritmo vengono implementate in modo molto cauto.  Ciò che mi preme però segnalare è che anche una volta effettuate resta attivo un gruppo di controllo, una quota di utenti a cui non viene aggiornato l’algoritmo per verificare, con un’analisi continuativa quale è il gruppo con migliori performance. Si tratta di un controllo che definirei ex post: posteriormente alla modifica si continua a verificare se l’algoritmo è migliorato oppure no.

IL PROVIDER “CONCEDE” NUOVE FEATURES AGLI UTENTI

In direzione del tutto diversa và però un’altra famiglia di interventi volti a migliorare il rapporto di engagement fra il pubblico e i contenuti delle news feed. La sua ratio và cercata nella prospettiva di occasionare episodi in cui diventa possibile spezzare il legame utente-algoritmo e liberare il potere di espressione del pubblico.  È così che la piattaforma di Zuckerberg, e con maggior vigore proprio negli ultimi due anni, ha iniziato a fornire agli utenti degli strumenti di auto gestione.  Insomma la logica che guida questa parte dell’innovazione è la seguente: lasciare che siano gli utenti a decidere da soli cosa vogliono vedere e cosa no.  In effetti FB ora permette di smettere di seguire un amico, di vedere meno contenuti di un certo tipo di storie, ma anche di dare la precedenza ad alcuni amici o pagine che verranno favorite.

Tuttavia queste sembrano a occhi esperti più delle concessioni, che dei veri passi verso la democratizzazione delle scelte: la libertà di gestione resta sempre ben subordinata alle decisioni dell’algoritmo.  Ci siamo posti all’inizio il dilemma del “giocoforza”. Ci siamo chiesti: “il Web perché mai giocoforza dovrebbe avere degli algoritmi per scegliere come gestire le News?”.  Ora, sull’onda di queste recenti modifiche al backend, puoi capire che non c’è alcuna necessità, potremmo essere noi utenti e decidere cosa vedere.  Una piattaforma sociale, benché assai meno complessa di FB come Reddit lascia operare i suoi utenti in un regime molto più democratico del monopolista di Menlo Park.  Lì ciascuno decide di testa sua.   Che Zuckerberg abbia deciso di sottrarci una piccola quota di libero arbitrio, almeno limitatamente alle possibilità di scegliere cosa vedere nel news feed e lo abbia delegato ad un algoritmo non è un caso e non è sprovvedutezza! Assolutamente nulla di ciò.

Ora che sono state implementate delle funzioni che aprono, di fatto, ad un principio di autogestione, siamo certi che il tema che si potrebbe riassumere nel seguente slogan: “lasciamo che a pilotare i contenuti del feed sia un algoritmo neutrale così il pubblico avrà il meglio e ciò che più lo coinvolge” non deve essere visto tanto come un servizio quanto piuttosto come un’imposizione.  Se al pubblico venisse concesso di poter scegliere di operare con un’apertura sempre più autonoma di gestione delle funzioni del pannello di controllo, ciò che presto potrebbe finire col decidere potrebbe persino essere di escludere la pubblicità. I provider hanno troppo ben impresso nella memoria quello che il pubblico televisivo fa con lo zapping per opporsi alla pubblicità per pensare, anche solo per un attimo, di aprire ad uno scenario che dia agli utenti persino una remota possibilità di affrancarsi dai contenuti veicolati dalla piattaforma. Un forte regime di restrizioni di uso è il sale di una ricetta che vuole assicurarsi che il pubblico sia e resti ben alla mercè della volontà di un algoritmo.  Il suo scopo finale, quello dell’algoritmo, è guidare il flusso dei contenuti in modo di poter riconoscere esattamente che tipo di carattere e di aspettative di consumo, e non solo di engagement, investe ciascuno di noi mentre interagisce con la piattaforma.  In tal modo, questa, potrà offrire ai propri inserzionisti dei pacchetti di advertising molto meglio profilati e performanti di quelli di altri concorrenti.  In fondo, tornando a Reddit, quanto ne sa il provider di chi è il suo utente e di cosa pensa rispetto ad una “macchina della verità” che conosce i più reconditi segreti dei suoi utenti come fa il gioiellino di Menlo Park grazie ai suoi costosissimi algoritmi?