Predictive Outbound

predictive analitycs per la qualificazione di liste, un esempio concreto di utilizzo degli opendata

Supponiamo di avere una base dati di utenti privati consensati ad un determinato servizio, composta solo dai seguenti attributi: [nominativo], [indirizzo], [località], [numero di telefono]. L’approccio classico palesa che da queste informazioni non è possibile determinare nessuna informazione rilevante ai fini di una segmentazione.

Le attività di outbound sono costose, l’obiettivo di un processo di arricchimento potrebbe essere quello di definire se valga o meno la pena di contattare un prospect,

L’intuizione che muove questo progetto è la seguente: il profilo sociodemografico dell’individuo influenza la sua predisposizione verso una azione di tentata vendita di un prodotto.

L’intuizione è scontata, d’altra parte in questo caso sembrerebbe non applicabile perché nei dati originari non sono contenute informazioni sociodemografiche rilevati.

Tuttavia è possibile qualificare queste liste in modo indiretto, facendo ricorso ad una serie di informazioni altrimenti disponibili.

Per il nostro caso faremo riferimento alle seguenti fonti informative: il CRM aziendale, i servizi GIS di reverse geocoding, open-data estratti da Geonames e dall’Istat, nonchè il piano di numerazione nazionale.

Per qualificare la lista utilizzeremo un processo articolato:

  1. Trattamento statistico dei dati anagrafici su CRM
    Il trattamento dei dati anagrafici provenienti dal CRM aziendale si pone l’obiettivo di analizzare l’insieme dei nomi e cognomi associati al codice fiscale al fine di produrre due distribuzioni statistiche di frequenza: la frequenza di associazione associazione nome => sesso e la frequenza di associazione Cognome => Regione/Nazionalità di nascita.
    Terminato il trattamento il nominativo verrà qualificato con [sesso], [regione di origine culturale], [nazionalità] 
  2. Reverse geocoding dell’indirizzo:
    questo trattamento viene fatto allo scopo di associare all’indirizzo le sue coordinate geografiche, la coordinate geografiche verranno poi trasformate in griglia MGRS:  il military grid reference system (MGRS) è un sistema di coordinate creato inizialmente per scopi militari dalla Nato, ma in questo caso molto utile da utilizzare come chiave di riferimento a cui riferire dati statistici di densità.
  3. Trattamento statistico da Geonames:
    Geonames è un database opedata che offre una base dati nazionale di point of interset, tali point of interset sono qualificati e georeferenziati; a partire da questi dati è possibile individuare, per le medesime grid a cui abbiamo riferito gli indirizzi dei propsect, riferire una serie di altre indicazioni; ad esempio; l’altitudine della località più prossima, la popolazione dei “populated place” più vicino, la densità  di point of interest nella grid, la densità di hotel e ricettività nella grid, da cui dedurre la “vocazione turistica” della località.
    Terminate la fase 2 e 3 sarà possibile riferire all’indirizzo informazioni relative alla vocazione turistica della grid [grid touristic index] (industriale, residenziale, turistico, vacanze) e la densità di point of interest [grid POI density], la [nearby population]  e la [altitude]
  4. Trattamento dei dati di densità:
    Torniamo ora al CRM per effettuare un’altra elaborazione finalizzata a determinare il numero di strade ed il numero di utenze telefoniche nella grid, questo consentirà di associare la nominativo la [grid street density], la [phone number density], ed un [indice di concentrazione] definito come [phone number density]/[grid street density]
  5. Trattamento dei dati istat:
    Dall’istat sono pubblicati in modalità opendata una serie di report relativi al reddito, alla incidenza del furti nella abitazioni, degli scippi, delle rapine, dei sinistri auto, quelli mortali e quelli con feriti, tutti questi dati possono essere riferiti alla provincia di residenza del prospect. Inoltre dalle coordinate è possibile calcolare la distanza dell’indirizzo di residenza del prospect dal capoluogo di provincia.
    Al termine di questa attività i dati saranno quindi arricchiti da altre informazioni come [indice di furto] e [indice incidenti stradali] che sono riferiti all’indice nazionale relativo
  6. Trattamento dei numeri di telefono:
    Dal piano di numerazione è possibile desumere, con una certa approssimazione, anche l'[anzianità del numero] assegnato e l’[operatore telefonico] iniziale che ha attivato la numerazione. I vari brand delle compagnie telefoniche hanno, in conseguenze delle politiche di comunicazione e di prezzo, un posizionamento decisamente diverso, in termini di profilo di clientela, livello di servizio atteso, rapporto eartime voce/dati e e livello di costo, inoltre il confronto con la numerazione nazionale consente anche di individuare numeri fake, numerazioni ripetute su anagrafiche diverse o incongruenze tra le residenze dichiarate ed le numerazioni fisse; queste incongruenze denomionate [warning] indicano chiaramente di non utilizzare i nominativi per il, campagne outbound perché con ogni probabilità a quei numeri non risponderà nessuno
  7. Trattamento delle email
    discorso analogo può essere fatto per le Mail, un lookup sulla rete consente di verificare l’esistenza del dominio sui DNS, le mail possono essere validate con regular expressions, ottenendo un nuovo set di incongruenze o [warning]; inoltre [mail free] o [mail pay] indicano l’attenzione dell’utente ad aspetti di privacy e di sicurezza, i servizi offerti dai vari [provider] hanno sofisticazioni diverse in termini di servizi e complessità delle interfaccia, sintomo di una diversa propensione all’uso della tecnologie.

Alla fine di questa attività il record di ogni prospect sarà stato sarà stato arricchito da una quantità di informazioni che possono essere utilizzate per condurre una analisi multidimensionale finalizzata ad identificare i clienti che abbiano una maggiora affinità con la propensione a rispondere e sostenere una conversazione con un teleseller.

Questa metodologia, applicata in diverse campagne ha consentito di mantenere i risultati di vendita, riducendo il numero di nominativi utilizzati per la campagna di una quota variabile tra il 40% ed il 50%! .

Weighted sentiment – part two

un indicatore della competition rilevabile con sistemi di text analitycs

part two: dal Sentiment di un Post al Sentiment di un Brand

Una volta messo a punto il processo per la rilevazione del sentiment dei post è possibile calcolare un indicatore cumulato per tutti i messaggi che parlano di quel determinato brand, e quindi confrontare il risultato ottenuto con il medesimo indicatore misurato per i competitore di quel brand.

Il modo più semplice per determinare un sentiment è quello di calcolare la differenza tra il numero dei messaggi con polarità positiva ed il numero di messaggi con polarità negativa , intuitivamente se il numero di messaggi negativi è superiore al numero di messaggi positivi, il sentiment avrà una polarità negativa.

Possiamo definire questa grandezza come absolute sentiment:

absolute_sentiment

dove N(p) è il p-esimo post con polarità positiva e N(n) è il n-esimo post con polarità negativa

Questo approccio vede il suo limite nel fatto che è probabile che in valore assoluto, le polarità abbiano un peso tanto più rilevante quanto più popolare è il brand, in altre parole, se di un brand si parla molto il suo sentiment sarà più pesante, inoltre questo indicatore assoluto non consente di fare confronti tra brand con “popolarità” diverse.

Si fa allora ricorso ad un indicatore relativo, espresso come rapporto tra la differenza dei messaggi con polalrità positiva e negativa relativi ad un brand, diviso per il totale dei messaggi relativi a quel particolare brand.

Definiamo questa grandezza come net sentiment

net_sentiment

dove N(p) è il p-esimo post con polarità positiva, N(n) è il n-esimo post con polarità negativa e N(t) è il t-esimo generico messaggio relativo al brand

Il net sentiment  è un indicatore molto potente, perchè consente di rendere confrontabili le misurazioni effettuate, con il medesimo metodo di analisi del sentiment dei post, tra tutti i brand concorrenti.

net_sentiment

net sentiment treemap, il brand A ha un net sentiment peggiore del brand B

Una rappresentazione schematica di questo di questo approccio è possibile in un grafico treemap. Questo grafico utilizza la seguente Metafora, il colore nella scala dal rosso al verde identifica con la sfumatura il net sentiment, la dimensione dell’area indica invece la popolarità del brand ovvero il numero assoluto dei post.

Tuttavia il net sentiment indicator ha un limite, in quanto considera gli aspetti quantitativi e qualitativi dei messaggi, ma tralascia di rappresentare un aspetto fondamentale, la Reach[1] che un messaggio ha avuto.

Per comprendere il significa di questo termine, occorre comprendere come gli utenti utilizzano i social: nel caso di TWITTER, la reach di un mio messaggio sarà equivalente al numero dei miei followers, se il messaggio è un messaggio pubblico in cui il brand è citato direttamente, con un hash (#Brand) oppure con un .@ (.@Brand),  sarà composta dal numero di followers in comune tra i miei e quelli del brand quando il messaggio è indirrizzato @Brand, sarà 1 quando il messaggio è un DM, allo stesso modo la reach di un post facebook sarà diversa se il post viene messo in bacheka, se è una reply, una share oi una like, o se è un post diretto.

Inoltre, se il messaggio è virale la reach di un post sarà data dalla somma dei followers di onùgli utente che riprende il post originale.

Conviene allora definire un altro indicatore, che dia anche contezza sia della viralità che della reach di ogni messaggio.

Definiamo questo indicatore come weighted sentiment

sentiment_formula

dove t è il numero dei messaggi con sentiment positivo, m è il numero dei messaggi con sentiment negativo, z è in numero totale dei messaggi, R(p) è la Reach del pesimo messaggio positivo, R(n)  è la Reach del nesimomessaggio negativo e R(t) è la Reach del tesimo messaggi

 

Il weighted sentiment può riservare sorprese, l’analisi della medesimo mercato rappresentata precedentemente rivela una polarità invertita tra il Brand A ed il Brand B, la ragione di questo fatto è che nel caso del brand A i messaggi sono rimasti in un contesto “riservato” mentre nel caso del Brand B sono stati postati dei messaggi negativi in modalità pubblica, le pulsioni emotive che spingono ad un comportamento di questo tipo sono fortemente dipendenti dalla insoddisfazione e della frustrazione dell’utente nella storia della sua relazione con il brand.

weighted_sentiment

weighted sentiment treemap, il brand B ha un weighted sentiment peggiore del brand A

 

 

go to part one – Sentiment Analisys

 

[1] Reach: somma di tutti gli utenti che parlano di un brand sommata al numero di tutti i loro follower

Weighted sentiment – part one

un indicatore della competition rilevabile con sistemi di text analitycs

part one – Sentiment Analisys

Cosa intendo per Sentiment?  In generale, la rilevazione dell’atteggiamento di autore di un testo (parlato a scritto) rispetto ad determinato argomento, o meglio ancora la polarità contestuale di un contenuto rispetto ad un determinato argomento. A grandi linee la polarità potrà essere “positiva”, “neutra” o “negativa”.

Per un essere umano è abbastanza semplice, anche se difficilmente oggettivabile, determinare la polarità di un testo: qui verrà descritto un possibile approccio per la rilevazione delle polarità attraverso tecniche di elaborazione.

Questo approccio automatico si basa su tecniche di text analitycs, che si pongono l’obiettivo di identificare  determinate parole chiave all’interno del testo, parole che esprimo valenze negative, come insulti, epiteti, parolacce sono certamente indicativi di una precisa polarità negativa, ringraziamenti, superlativi indicano una probabile polarità positiva: una frase come  “siete una manica di s,,,,,.” non lascia adito a dubbi; anche la segnalazione di un disservizio segnalata pubblicamente attraverso un social network è senz’altro un indicatore di sentiment negativo dell’autore.

Ragionando su questo tema subito intuiamo che si tratta di una misurazione basata su sfumature, oltretutto la pratica evidenzia che, a differenza dei testi presenti nella pagine web, nel caso dei post social l’uso della ironia è una prassi comune, ecco che allora, un approccio basato su parole chiave troverebbe un limite nell’analisi della polarità di post del tipo: “anche oggi internet non funziona, davvero un ottimo servizio“,   “non ci sono dubbi, internet funziona molto meglio, è davvero un ottimo servizio“.

Quindi abbandoniamo il metodo basato sulle singole parole a favore di un nuovo nuovo metodo, basato sui sintagmi: un sintagma è una sequenza di parole, composta come minimo da una sola parola, e come massimo dall’intera frase, che abbiamo un significato compiuto anche estratte dalla frase stessa: le due frasi avranno quindi sintagmi diversi:

anche oggi internet non funziona, davvero un ottimo servizio

  • oggi
  • internet
  • funziona
  • ottimo
  • servizio
  • oggi internet
  • ottimo servizio
  • anche oggi
  • internet non funziona

non ci sono dubbi, internet funziona molto meglio, è davvero un ottimo servizio

  • dubbi
  • internet
  • funziona
  • molto
  • meglio
  • ottimo
  • servizio
  • ci sono
  • internet funziona
  • molto meglio
  • ottimo servizio
  • non ci sono
  • ci sono dubbi
  • internet funziona molto
  • funziona molto meglio
  • un ottimo servizio

Già a prima vista si evidenzia che i sintagmi sono diversi e la determinazione della polarità è più chiara, tuttavia rimangono alcuni casi equivoci (ad esempio “ci sono dubbi”) che presi da soli potrebbero essere indicatori di una polarità negativa anche se nel contesto della frase hanno una polarità positiva.
E’ necessario allora determinare un indice di affinità con la polarità di ogni sintagma, il problema, tutto sommato semplice, diventa complicato quando si passa dalle parole ai sintagmi, infatti se le parole sono di un ordine di grandezza in meno rispetto alle frasi, i sintagmi sono di un ordine di grandezza in più.
Occorrerà quindi operare una riduzione del problema prima di poter operare la determinazione delle polarità: noi utilizziamo un approccio basato su una rete neurale fuzzy in cui il processo di determinazione delle Features (i nodi di input della rete) è basato su un calcolo volto alla determinazione del TF-IDF[1] (Term Frequency Inverse Document Frequency) di ogni sintagma in relazione ad ogni classe.
Solo i sintagmi che polarizzano bene verranno quindi utilizzati dalla rete (comunque si tratta di qualche migliaia di sintagmi).

Una volta determinato il sentiment di ogni post è possibile determinate un sentiment complessivo per un determinato brand, e confrontarlo con quello di altri brand concorrenti.

 

go to part two: dal Sentiment di un Post al Sentiment di un Brand

 

[1] TF-IDF: abbreviazione di term frequency–inverse document frequency, è un indicatore numerico statistico volto a indicare quando un costrutto lessicale sia importante in un documento appartenente ad un collezione o corpus.

Brand Reputation in the social Age

prescriptive marketing use case - conoscere gli influencers per pilotare il weighted sentiment

 

Hai mai cliccato qui con il mouse? Lo farai!

Era il 27 ottobre 1994, questa la frase apparve nel primo banner della storia sulla homepage del sito di  Wired Us (allora si chiamava HotWired).

Il primo spot pubblicitario della storia fu un filmato della Bulova proiettato tra due programmi televisivi  nel 1941 negli Stati Uniti, nel 1957 la Sipra lancia Carosello, dobbiamo attendere 20 anni per arrivare nel 1976 al primo spot su Telebiella e alla nascita della pubblicità sulle TV commerciali private; Publitalia 80 nasce nel 1980 e segna la nascita di un nuovo operatore intermediario tra i canali televisivi e i Brand, l’agenzia; il primo smartphone della storia si chiamava Simon ed è del 1992.

il_primo_banner

Poi, nel 1994 At&t acquistò questo spazio su un sito e da allora il mondo non è più stato lo stesso: tutto è accelerato ad una velocità impressionante:1997 Google; 2000 AdWord, per la prima volta non sono più i GRP [1] e le impression [2] le metriche di riferimento della pubblicità, ma il CTR [3] e nasce il performance advertising; 2003 Android; 2004 Facebook; 2005 Youtube, Google acquista Urchin e lancia Google Analytics; 2006 Twitter, AdMob, Spotify; 2007 iPhone; 2008 HTC dream, il primo smartphone Android; 2009 WhatsApp; 2010 Pinterest, Instagram, nasce il retargeting, Apple lancia iPad; 2012 Google Glasses; 2013 la Cina supera gli Stati Uniti nella ricerca scientifica; 2014 AliBaba stabilisce il nuovo record IPO nella storia della borsa.

Che corsa!

In conseguenza di questa rivoluzione dei media, che cosa è cambiato nel Brand Reputation Management [4]?

Tipicamente una campagna di Brand Reputation seguiva un processo strutturato e ben noto: definizione della “Copy Stragey”, definizione della “Copy Development Strategy”, definizione della “Media Strategy”, allocazione del budget sulla base del GRP e del Media Mix, costruzione del “Media Plan” ed esecuzione della campagna, rilevazione dei feedback con indagini campione qualitative e quantitative.

Questo processo tipico, ben strutturato, è solido ed applicabile, con poche variazioni sul tema della rilevazione degli esiti della campagna, a tutti i modelli pubblicitari in cui l’iniziativa della comunicazione venga presa dal Brand.

Ma con l’avvento dei social network la cardinalità della comunicazione su un brand NON È PIÙ IN MANO AL BRAND. Nel social web i Brand non hanno le leve per

  1. favorire la comunicazione
  2. pilotare la comunicazione
  3. chiudere la comunicazione

Il Brand Reputation Management di conseguenza è cambiato.

Nel web si trovano suggerimenti sulle prassi di Social Reputation Management:

Reputation management campaigns may be conducted to increase the visibility of positive opinions or to decrease the visibility of negative opinions. One common practice is the creation of positive content pieces about a business to counter negative organic content. A reputation manager posts positive pieces in sufficient numbers to make the negative commentary display less prominently in search results or on social media sites. They might also join conversations, for example responding to tweets complaining about a company with comments that they had only good experiences to report

Castronerie come questa sono comuni e condivise e sono giustificabili solo con la profonda ignoranza: sia delle società di PR che offrono questi servizi, sia di chi li acquista.

Cerchiamo di capire di che cosa stiamo parlando: innanzitutto occorre accettare un fatto: l’esistenza degli influencers [5], un inluencer è tale perché ha una rete di influenceables, la sua Reach [6] (il numero di persone che possono essere esposte alla sua comunicazione) è la metrica di riferimento che consente di definire se una persona è influencer oppure no.

influencer_network

 

Il grafo rappresenta il network dei primi 750 influencers dell’universo bancario italiano; la metafora utilizzata nel grafo è la seguente: la dimensione della sfera è una indicazione della Reach, il colore verde indica un istituto di credito, il colore grigio indica un influencer della rete bancaria non attivo (cioè che non ha postato nulla relativamente ad un brand bancario negli ultimi 6 mesi ma è un follower di un istituto di credito) il colore rosso indica un influencer attivo.

La Reach complessiva di questi infuencers, sul solo canale twitter è di oltre 34 milioni di individui, la banca con il Reach più elevato supera di poco i 4500 followers, pensare di poter modificare un sentiment postando dei fake è “matematicamente” poco realistico.

Il grafo evidenzia bene un’altro aspetto, ovvero che è errato parlare degli “influencers di un brand”, gli influencer infatti sono collegati a più di un instituto, essere un influencer insomma è una caratteristica che attiene all’individuo e non alla relazione tra l’individuo ed il brand.

Ma un influencer è tale se abbina alla reach anche la sua abilità nel trattare temi che abbiano caratteristiche di viralità.

È possibile segmentare gli influencers considerando due elementi, la reach e la virality [7] media dei loro post:

influencers_segmentation

Oltre alla conoscenza degli influencers, un’altra informazione è fondamentale, il sentiment [8] espresso dagli utenti sul web.

Le rilevazione del sentiment è una pratica arbitraria di misurazione dell’atteggiamento, della opinione, del percepito degli utenti relativamente ad un Brand. Il sentiment viene rilevato attraverso metodologie di text analitycs e semantic web. Un processo di rilevazione del sentiment è normalmente strutturato su questi passaggi:

  1. rilevazione dei contenuti che parlano del brand
  2. processo di text clustering per raggruppare i messaggi simili per contenuto
  3. creazione del modello semantico di riferimento per i sentiment positivi, neutri o negativui
  4. semantic analisys per assegnare ad ogni cluster di messaggi il sentiment relativo
  5. calcolo del sentiment complessivo

Il sentiment quindi è una misurazione complessiva, in un determinato periodo, di tutti i messaggi che trattano di un determinato brand, siano questi stati originati da azioni del brand stasso sia spontaneamente prodotto dagli utenti anche in assenza di stimoli da parte del brand.

Noi utilizziamo il seguente modello matematico per determinare il sentiment in un determinato intervallo di tempo, denominato weighted sentiment:

sentiment_formula

dove t è il numero dei messaggi con sentiment positivo, m è il numero dei messaggi con sentiment negativo, z è in numero totale dei messaggi, R(p) è la Reach del pesimo messaggio positivo, R(n)  è la Reach del nesimo messaggio negativo e R(t) è la Reach del tesimo messaggio.

Risulta evidente da questa formula che un messaggio negativo, postato da un influencer con una Reach significativa, vanifica l’effetto di molti messaggi positivi postati da utenti ininfluenti.

Un weighted sentiment positivo indica una probabilità che un utente sia esposto a post di tenore positivo maggiore della probabilità che venga esposto ad un post di tenore negativo, quindi è una misura della viralità di un Brand, ed in ultima analisi della possibiltà per la marca di affermarsi rispetto ai competitors con un weighted sentiment negativo.

Il weighted sentiment si basa sul modello semantico arbitrario, quindi non è una misura  assoluta, ma, a differenza di altri indicatori, (come il NPS, ad esempio) ha il vantaggio di avere un valore relativo, consentendo quindi il confronto tra Brand dello stesso settore, la rilevazione periodica del weighted sentiment consente inoltre il monitoraggio nel tempo del valore percepito del marca.

Sfruttando la conoscenza degli Influencers e del Sentiment da loro espresso è possibile definire una strategia Prescriptive Marketing di Brand Reputation Management mirata all’incremento del weighted sentiment, che agisca su tre fronti:

  • Marketing verso gli influencers, per aumentare ll sentiment verso del brand all’interno della comunità degli influencers
  • Marketing attraverso gli influencers, utilizzando gli influencers per aumentare il sentiment del Brand, tra i mercati di riferimento
  • Marketing degli influencers , trasformando gli influencers in promoter del Brand.

Un esempio? L’identificazione di un Influencer e la dissatisfaction predition in tempo reale, ad esempio nel tempo di transito attraverso un IVR durante la chiamata al customer center consentirebbero di ruotare la chiamata verso un team qualificato in attività di social engagement e magari dotato di leve di intervento sui processi e politiche di retention migliori.

 

Nel presente post sono stati utilizzati i seguenti termini di cui si chiarisce la definizione:

  1. GRP: (Gross Rating Point) una misura utilizzata in advertising, misura l’impatto di una campagna pubblicitaria. Si misura come percentuale del mercato target raggiunto dalla campagna, moltiplicato per la frequenza di esposizione alla comunicazione in campagna.
  2. Impression: in online adversting è la misura del numero di volte che un contenuto pubblicitario viene visto.
  3. CTR: (Click Through Rate) il rapporto tra il numero di click su un contenuto pubblicitario diviso per le sue impressions.
  4. Brand reputation management: l’insieme delle attività volte a gestire e monitorare gli esiti delle attività di comunicazione relative ad un Brand e rilevare le opinioni espresse da terze parti sugli stessi Brand.
  5. Influencer: si dice di una persona che ha il potere di influenzare le decisioni di acquisto di altri per via della sua (reale o presunta) autorevolezza, competenza, posizione o rete di relazioni, un influencer è tale per via della dimensione della sua rete di influenciables
  6. Reach: la somma di tutte le persone che parlano di un brand + la somma di tutti i loro followers: la misura del reach consente di quantificare non solo numero di utenti ingaggiati direttamente  da una comunicazione, ma anche il numero dei followers di questi utenti, che potrebbero avere visto la stessa comunicazione
  7. Virality: la misura della velocità e della estensione della diffusione di una comunicazione veicolata direttamente da un utente ad un’altro via web.
  8. Sentiment: un atteggiamento o una opinione verso un Brand. Un pensiero influenzato da o derivante da sentimenti o emozioni.

Dissatisfaction Prediction

use case di predictive marketing applicato alla Dissatisfaction

Il Net Promoter Score è una metrica per rilevare la fidelizzazione dei clienti sviluppata da Fred Reichheld , Bain & Company , e Satmetrix[1].

NPS

I brand spendono molti soldi per rilevare questo dato attraverso questionari e interviste, per ottenere un indice che dia loro un’indicazione di quale sia il potere attrattivo del loro marchi.

Sono state mosse molte critiche al NPS, innanzitutto non è rilevato su tutti i clienti, quindi sarebbe corretto affermare che il NPS non è l’indice di fidelizzazione dei consumatori del brand ma bensì di quei consumatori che rispondono ai questionari, inoltre è in indice relativo, ha valore solo se confrontato con il NPS dei brand concorrenti, infine è un indicatore sterile, rilevato sulla base di eventi passati, che non offre alcuna informazione su come l’azienda può intervenire.

Tuttavia un NPS detrattore è un oggettivo indicatore di Dissatisfaction che, abbinato a tecniche di predictive marketing, può diventare un’arma formidabile.

Vediamo un caso concreto che abbiamo sviluppato per una società di TLC.

Come prima cosa abbiamo cercato di capire quali altre tipologie di dato, oltre al NPS, fossero disponibili per ogni cliente rilevato.

Abbiamo individuato questi insiemi di dati: i dati estratti dal CRM con informazioni relative al prodotto/servizio consumato ed alla anzianità della relazione con il cliente; il sistema legacy, da cui era possibile rilevare, per ogni cliente, tutti gli eventi che potevano averlo interessate, il sistema di trouble ticketing, da cui era possibile estrarre il dettaglio di ogni ticket, il tipo di problema e l’esito del trattamento, i dati rilevati nelle interviste in cui, oltre al NPS era riportata anche la trascrizione dell’intervista con le risposte fornite dal cliente.

Ci siamo chiesti: un utente esperto, conoscitore del prodotto e dei possibili disservizi che possono interessare i consumatori, sarebbe in grado di prevedere il NPS di un cliente analizzando la sua storia della relazione con la marca ed il prodotto acquistato?

Lo spunto sembrava stimolante, abbiamo selezionato alcuni operatori del contact center, abbiamo sottoposto loro svariati casi con NPS noto ed abbiamo verificato che effettivamente erano in grado di prevedere il livello di soddisfazione/insoddisfazione.

La teoria delle reti neurali ci ha suggerito lo step successivo: se un essere umano esperto poteva dedurre l’insoddisfazione di un cliente, posto che fosse conosciuta la storia della sua relazione con il brand, allora si poteva addestrare una rete neurale per inferire la stessa conclusione a partire dagli stessi dati.

Abbiamo così suddiviso il campione di clienti con NPS noto in due insiemi selezionati in modo casuale, abbiamo usato il primo insieme come set di addestramento ed il secondo come set di controllo.

L’insieme degli eventi, dei ticket e degli esiti è stato trasformato in una timemline per ogni cliente del set di addestramento, quindi abbiamo addestrato una rete neurale con le timeline ed il NPS rilevato.

Una volta completato l’addestramento abbiamo applicato la rete neurale al campione di controllo e i risultati ottenuti sono stati confrontati con il loro NPS.

La rete effettivamente era in grado di “predire” correttamente un gran numero di detrattori.

dissatisfaction_prediction_accuracy

Vediamo quali sono le conseguenze di un approccio predittivo di questo tipo:

  1. il brand è in grado di predire se e con quale probabilità un cliente che sta chiamando il servizio clienti è un potenziale detrattore, mentre costui è ancora in ascolto dell’IVR, quindi è in grado di intervenire tempestivamente per ruotare il cliente verso operatori più skillati e con maggiore delega operativa
  2. il brand, applicando la rete neurale a tutte le timeline, è in grado di conoscere quanti sono i detrattori nascosti nel suo portafoglio clienti, anche se non hanno risposto al questionari, quindi può attivare campagne di retention su tutti i potenziali clienti insoddisfatti
  3. la rete fornisce indicazione su quali siano gli eventi ed i ticket che presentano maggiore affinità con l’insoddisfazione dei clienti, le deduzioni sono confermate da sentiment analysis e text mining applicate ai testi delle interviste. Sulla base di queste indicazioni l’azienda può intervenire, modificando i processi di gestione al fine di eliminare le cause di insoddisfazione

 

[1]La rilevazione del NPS si basa su una domanda diretta : Quante probabilità ci sono che lei raccomandi la nostra azienda / prodotto / servizio ad un amico o un collega ? L’intervistato risponde a questa domanda con un indice compreso tra 0 a 10. Si definiscono promotori coloro che rispondono con un punteggio di 9 o 10, i detrattori sono coloro che rispondono con un punteggio da 0 a 6. I valori 7 e 8 sono i passivi. Il NPS è calcolato sottraendo la percentuale detrattori dalla percentuale di promotori.

Prescriptive Marketing

Definizione di Prescriptive Marketing: dai pattern all'azione: create, test, refine

Dalla Enciclopedia Britannica: pre·scrip·tive adjective \pri-ˈskrip-tiv\: giving exact rules, directions, or instructions about how you should do something.

La definizione più accreditata di Prescriptive Analytics si riferisce ad una prassi di Business Analytics che si concentra sulla ricerca del miglior modo di agire per una data situazione, e appartiene a un portafoglio di funzionalità analitiche che includono analisi descrittiva e predittiva.

Il processo tipico di Prescriptive Marketing può essere descritto come la successione virtuosa di tre fasi:

  • La fase di Creation: in questa fase gli esiti delle attività di Predictive e Descriptive analytics vengono utilizzare per strutturare il processo che verrà successivamente testato: il processo viene descritto come un insieme di Business Rules, le Business Rules vengono poi legate tra di loro secondo un insieme di predicati: “se {condizione} allora {next-best-action}“, l’esito di questa attività è il Business Process che l’azienda intende porre in ensecuzione.
  • La fase di Test: che verifica che l’obiettivo predefinito sia raggiunto ed i KPI rispettati, ogni azione svolta, (ogni step del processo) viene loggato e diviene anch’esso oggetto di analisi nella fase successiva
  • La fase di Refine: che consente, attraverso tecniche di Descriptive e Predictive Analytics, di identificare nuovi pattern e raffinare ulteriormente il processo.

Quindi il Prescriptive Marketing è si occupa della analisi e definizione di processi: l’approccio prescrittivo definisce le potenziali azioni, le interazioni tra le azioni, gli elementi che supportano il processo decisionale che determina una azione con l’obiettivo finale di prescrivere la sequenza ottimale delle best action in tempo reale.

I dati che possono essere presi in considerazione per determinare la next best action sono molti e disparati, se si pensa ad un processo di customer caring, le informazioni disponibili arrivano da una molteplicità di fonti: alcune di queste sono interne all’azienda come ad esempio: le informazioni tratte dai CRM e dai sistemi legacy, la timeline degli eventi e dei ticket che hanno interessato il cliente, gli esiti delle gestioni precedenti: altre informazioni tipicamente non strutturate arrivano invece dall’esterno come ad esempio ciò che il cliente ci ha detto o scritto sull’azienda o il prodotto, il tono che ha utilizzato, lo spettro vocale che sta utilizzando ora, il suo profilo socio-demografico, la sua dimensione sociale, la struttura della sua rete di contatti, etc…

Ma se i dati ci sono dove è il problema? Secondo Herbert A. Simon (probabilmente il primo a formulare il concetto di “attention economics”) :

… in un mondo ricco di informazioni, la ricchezza delle informazioni comporta la carenza di qualcosa d’altro: scarsità di tutto ciò che l’informazione consuma. Cosa consumi l’informazione è piuttosto evidente: consuma l’attenzione dei suoi destinatari. Quindi la ricchezza di informazioni crea la povertà di attenzione e la necessità di ripartire l’attenzione in modo efficiente tra la sovrabbondanza di fonti di informazione che potrebbero consumarla[1]

Questa affermazione è certamente vera se si tratta di un essere umano, ma i computer non si stancano ne si distraggono, compito del Prescriptive Analytics sarà dunque proprio quello di trattare tutte queste informazioni al fine di suggerire la prossima migliore azione o migliore decisione.

Se ci si confronta con grandi Volumi di dati caratterizzati da grande Varietà da trattare con elevata Velocità, per digerire questi dati e poterli elaborare in modo da dare indicazioni in tempo reale sulle attività da svolgere o le decisioni da prendere, occorre essere in grado di svolgere in runtime una varietà di trattamenti delle informazioni:

  • innanzitutto tutto i dati disponibili, interni ed esterni all’azienda devono essere raccolti e messi a disposizione per l’elaborazione attraverso processi di ETL (Extraction Trasformation and Loadi),
  • in funzione del tipo di dato, verrà scelto il tipo di elaborazione sui dati per poterli rendere comprensibili alle macchine,  operando ad esempio trattamenti di text analytics, domine specific semantic analytics, pattern recognition, clustering e autoclustering, metadata management, classification,
  • si passa poi all’impiego di tecniche di machine learning  per addestrare gli algoritmi predittivi a prendere le decisioni giuste

Il sistema così apprenderà e proporrà il processo migliore per quel caso di quel cliente; le fasi e gli esiti del processo saranno nuove ulteriori fonti di dati che potranno essere utilizzate nelle fasi successive di ottimizzazione.

AnalyticsValueChain

 

[1] Simon, H. A. (1971), “Designing Organizations for an Information-Rich World”, in Martin Greenberger, Computers, Communication, and the Public Interest, Baltimore, MD: The Johns Hopkins Press, ISBN 0-8018-1135-X

[2] Data, information and analytics as service, in: Decision Support Systems, Volume 55, Issue 1, April 2013, Pages 359–363

Predictive Marketing

Definizione di predictive marketing; come sfruttare: la velocità con cui le informazioni diventano disponibili, la vastità delle informazioni a disposizione che devono essere analizzate,  la varietà dei canali a disposizione.

Il termine di Predictive Marketing indica il processo attraverso cui, le aziende possono prevedere  anticipare, con indice di confidenza noto, cosa accadrà.

Il processo si basa su tecniche di predictive analytics applicati ai dati, attraverso tali tecniche è possibile individuare trend, pattern e associazioni non prevedibili. Attraverso tali tecniche è possibile prevenire la perdita di clienti importanti, vendere servizi aggiuntivi ai clienti esistenti, aumentare l’efficacia di una azione di vendita, individuare una possibile frode.

Scopo del predicitive analytics è l’individuazione dei predictors, variabili che possono essere rilevate e quantificate per una molteplicità di persone e quindi utilizzate per prevedere il comportamento futuro.

L’insieme dei predictors  costituisce il modello predittivo, quando il modello viene sottoposta ad ad analisi, emergono dei trend e dei patter, questi trend e pattern possono essere utilizzati per valutare se e con quale probabilità un determinato evento si verificherà nel futuro.

Nella modellazione predittiva, il primo passo è quello di raccogliere dati, poi sulla base di questi dati viene costruito un modello statistico. Il processo di analisi deve poter lavorare su una grande quantità di dati …

fractalroot

… prima che possa emergere dalla analisi un trend evidente.

pattern

Una volta inferito il pattern o il trend, il modello viene confrontato con un campione reale per la convalidata (o la revisione periodica) non appena nuovi dati vengono resi disponibili.

pattern_analisys

Trattandosi di modelli statistici è evidente che la base dati di riferimento debba essere di grandi dimensioni, ed altrettanto evidente appare la necessità di disporre di adeguata capacità di elaborazione; la teoria è nota da tempo, ma solo da pochi anni questa teoria è diventata praticabile, per due ragioni: la tecnologia ha reso possibile l’elaborazione dei modelli e la raccolta dei dati di confronto a costi accettabili, ed i social network consentono di raccogliere le evidenze di riscontro alla correttezza delle ipotesi formulate in tempo reale.

Sono state mosse molte critiche ai modelli statistici predittivi: si obbietta che ai modelli predittivi sfuggono le complessità degli esseri umani, Gary King, professore presso l’Istituto di Quantitative Social Science alla Harvard, ritiene che “la previsione statistica è valida solo in condizioni sterili di laboratorio” perché il numero di variabili ambientali e delle possibili risposte umane a queste variabili è intrinsecamente imprevedibile.

Certamente questo è vero, siamo molto lontani dalla “psicostoria” inventata da Hari Seldon, il personaggio protagonista della Trilogia della Fondazione di Asimov, una scienza immaginaria che tramite metodi matematici e statistici è in grado di prevedere, sia pure solo a livello probabilistico, l’evoluzione futura di una determinata società; tuttavia i modelli predittivi stanno avendo successo soprattutto nel Marketing applicato alle attività di vendita, alla insatisfaction prediction ed al churn prevention.

Una spiegazione di questo successo può essere individuata nel fatto che molte classi di informazioni relative agli esseri umani hanno una distribuzione tipica; sono infatti regolate da una legge di potenza, secondo la quale la probabilità che un evento si verifichi con una frequenza x è pari ad una costante per x elevato alla -α

power-law

La Power Law, altrimenti nota come Long Tail distribution o legge di Pareto,  descrive ad esempio la distribuzione di parole di un determinato dominio semantico, i sintagmi che costituiscono una lingua, le relazioni umane, le ricerche effettuate su un motore di ricerca, la distribuzione degli influencer in un social network, il numero dei morti nelle guerre, la popolazione delle città, il numero di collegamenti ai siti web, il numero di citazioni degli articoli accademici, la distribuzione della ricchezza, le vendite di beni di consumo, le chiamate inbound ad un customer service, le fluttuazioni di prezzo di un titolo, il volume degli scambi ed il numero di transazioni.

In ogni caso, che il predictive maketing ci piaccia o meno è un metodo che è destinato a restare e, poiché funziona conviene iniziare ad adottarlo prima che un competitor lo faccia al nostro posto, identifichi un pattern virtuoso e ci soffi i clienti sotto il naso.

 

 

Marketing

Definizione di marketing; il marketing oggi.

Che cosa significa il termine Marketing? Ci sono molte definizioni ufficiali [1]; una definizione che ritengo soddisfacente nasce proprio dalla sua etimologia:

(ciò che si fa) …affinché si venda

Questa definizione accenna, nella sua parte implicita, al fatto che il marketing e azione, o meglio che si tratta di un processo.

Questo concetto è stato introdotto da Giancarlo Pallavicini negli anni cinquanta, e poi ripreso e sviluppato da Philip Kotler: è a questi ricercatori che si deve la definizione di marketing come processo che consente di comprendere, creare, comunicare e distribuire valore; un processo circolare virtuoso, che parte dall’ascolto e dalla comprensione dei bisogni e delle forze che agiscono sui mercati, passa per la progettazione di prodotti o servizi in grado di rispondere alle nuove opportunità individuate, progetta la comunicazione dei vantaggi proposti, definisce i canali di distribuzione in una successione continua.

Questo processo di marketing è ancora universalmente valido?

Alcune cose sono cambiate in modo totale e definitivo: prima di tutto la dinamica dei mercati: fino ad una decina di anni fa i trend evolutivi erano tali che era lecito aspettarsi di poter prevedere un andamento proiettando un dato storico. Oggi questa tecnica non a più senso, è come se stessimo cercando di guidare un’auto a forte velocità voltati verso la parte posteriore, tentando di dedurre il tracciato che ci attende sulla base della strada già percorsa: in Seat nel 2002 facevamo la previsione sull’andamento delle campagne di vendita su un ciclo della durata di 24 mesi, e funzionava! Oggi le Pagine Gialle sono praticamente sparite, a livello globale.

Sono completamente cambiate le tecniche di ascolto dei clienti: ieri si faceva affidamento sulle indagini di mercato qualitative, sulle quantitative, sui focus group, chiedendo a società specializzate di individuare campioni rappresentativi del nostri clienti potenziali, a queste poi veniva affidata la rilevazione dei bisogni, la misurazione della soddisfazione, la individuazione dei key benefits… oggi i clienti parlano dei prodotti che hanno acquistato nei social network e sui blog, esprimono la loro soddisfazione, postano le loro critiche, fanno recensioni, esprimono richieste, votano e dicono esattamente quello che pensano, direttamente, senza filtri ne remore; sono loro a fare nascere la conversazione sul prodotto, non i brand: in TelecomItalia nel 2010 aveva ancora senso fare una qualitativa per determinare il NPS di un servizio come la posta elettronica ed un focus group per stabilire se sviluppare o meno un servizio di instant messaging, il 12 giugno 2012, WhatsApp (anno di costituzione 2009) ha annunciato tramite Twitter di aver superato i 27 miliardi di messaggi giornalieri.

Sono crollati i tempi necessari per avere un feedback dal mercato: se il prodotto/l’offerta funziona o meno è una informazione immediatamente disponibile; di più, è disponibile a tutti, anche ai competitor: una primaria banca italiana, che nello scorso mese di Novembre ha gestito male il rilascio dei servizi di online banking successivi ad una serie di operazioni di fusione, ha regalato ai suoi competitor una occasione d’oro per farsi portare via una quota di clienti ad alto valore.

I canali di comunicazione sono aumentati e si sono diversificati: per 50 anni (dai tempi del carosello) abbiamo avuto a disposizione solo la televisione, la radio, l’affissione e la carta stampata: nella seconda metà degli anni ’90 abbiamo introdotto online advertising e email marketing; all’inizio del nuovo millennio è esploso l’advertising a performance e sono arrivati gli smartphone; oggi abbiamo SEO, SEM, social advertising, viral marketing, mobile advertising, game adverstising, couponing, permission marketing, geofencing e proximity marketing; dietro la porte ci attendono nuove rivoluzioni epocali: i wearable device saranno strumenti ancora più personali degli smartphone ed avranno informazioni su di noi ancora più precise dei social network; internet of things parlerà di noi (e dei nostri consumi) attraverso le cose che possederemo o utilizzeremo, le stampanti 3D consentiranno produzioni uniche, personalizzate e just in time.

Insomma, il nuovo processo di marketing rimane valido, ma si deve confrontare con tre grandi novità: la velocità con cui cambiano i trend, la vastità delle informazioni a disposizione che devono essere analizzate,  la varietà dei canali a disposizione.

the marketing cloud